伯克利最新研究:深度學習技術讓機器人預知未來
視頻載入中...
美國加州大學伯克利分校的研究人員研發了一種機器人學習技術。通過這項技術使機器人能夠在完成一個動作後根據環境情況自助規劃後續動作。這項技術的研發初衷是讓機器人在陌生環境中能夠自主分辨並操控之前從未遇到過的物體。
這項技術被稱為視覺預見技術。機器人應用該項技術後,如果執行特定序列的動作,
伯克利加州大學電氣工程與電腦科學系的實驗室研發了這一技術。
伯克利加州大學電氣工程與電腦科學系的實驗室研究小組將於12月5日在加州長灘的神經資訊處理系統大會上進行視覺預見技術的演示。
該系統的核心是基於迴圈卷積視頻預測或動態神經對流(DNA)的深度學習技術。 基於DNA的模型是根據機器人的動作預測圖像中的畫面如何從一幀移動到下一幀。 近來對這類模型的改進以及對機器人自主規劃能力的極大提高使得基於視頻預測的機器人控制已經能夠執行日益複雜的任務,例如圍繞障礙滑動物體並重新定位多個物體物件。
萊文實驗室的博士生、原DNA模型發明者Chelsea Finn表示:“在過去,機器人在人類監管者的協助和回饋中學會了許多技能。而 如今這項技術令人興奮的點是——機器人可以完全依靠自己學習一系列視覺物體操控技能。”
利用該項新技術,機器人先將物體推到桌子上,然後使用學到的預測模型去選擇將物體移動至目標位置的運動方式。 機器人利用從原始攝像頭觀察到的學習模型去引導自己如何避開障礙物並將物體推到障礙物周圍。
萊文實驗室參與該專案的研究生Frederik Ebert說:“在沒有任何教師的情況下,人類通過與其一生中接觸的各種物體和數百萬次的相互作用去學習物件操控技術。我們已經證明,建立一個機器人系統也可以利用大量自主收集的資料去學習廣泛適用的操控技能,特別是物體推動技能。”
由於通過視頻預測所實現的控制僅依賴于由機器人自主收集的觀察,例如攝像頭圖像,因此所得到的方法是通用且廣泛適用的。傳統電腦視覺方法需要人類手動標記數千甚至數百萬圖像,而構建視頻預測模型僅需要未注釋的視頻並且完全可由機器人自主收集。 事實上,視頻預測模型已經被應用於從人類活動到駕駛涉及一切事物的資料集,結果也令人信服。
“孩子們可以通過玩玩具,移動和抓住玩具等來瞭解周圍世界。 我們的研究目標是使機器人也能做到這一點:通過自主交互瞭解世界如何運行。”萊文說, “雖然這個機器人的能力仍是有限的,但它是完全通過自主學習獲取技能。這意味著,通過建立之前觀察到的交互作用模式的基礎上,機器人可以預測與從未見過的物體之間複雜的實體交互。
伯克利科學家們一直在研究通過視頻預測實現控制技術。他們注重於進一步改進視頻預測和基於預測的控制,以及開發更複雜的方法,使機器人可以收集更多的重點視頻資料用於執行複雜的任務,例如拾取和放置物體、操控諸如布或繩一類柔軟和可變形的物體、以及組裝等。
然後使用學到的預測模型去選擇將物體移動至目標位置的運動方式。 機器人利用從原始攝像頭觀察到的學習模型去引導自己如何避開障礙物並將物體推到障礙物周圍。萊文實驗室參與該專案的研究生Frederik Ebert說:“在沒有任何教師的情況下,人類通過與其一生中接觸的各種物體和數百萬次的相互作用去學習物件操控技術。我們已經證明,建立一個機器人系統也可以利用大量自主收集的資料去學習廣泛適用的操控技能,特別是物體推動技能。”
由於通過視頻預測所實現的控制僅依賴于由機器人自主收集的觀察,例如攝像頭圖像,因此所得到的方法是通用且廣泛適用的。傳統電腦視覺方法需要人類手動標記數千甚至數百萬圖像,而構建視頻預測模型僅需要未注釋的視頻並且完全可由機器人自主收集。 事實上,視頻預測模型已經被應用於從人類活動到駕駛涉及一切事物的資料集,結果也令人信服。
“孩子們可以通過玩玩具,移動和抓住玩具等來瞭解周圍世界。 我們的研究目標是使機器人也能做到這一點:通過自主交互瞭解世界如何運行。”萊文說, “雖然這個機器人的能力仍是有限的,但它是完全通過自主學習獲取技能。這意味著,通過建立之前觀察到的交互作用模式的基礎上,機器人可以預測與從未見過的物體之間複雜的實體交互。
伯克利科學家們一直在研究通過視頻預測實現控制技術。他們注重於進一步改進視頻預測和基於預測的控制,以及開發更複雜的方法,使機器人可以收集更多的重點視頻資料用於執行複雜的任務,例如拾取和放置物體、操控諸如布或繩一類柔軟和可變形的物體、以及組裝等。