華文網

伯克利最新研究:深度學習技術讓機器人預知未來

視頻載入中...

美國加州大學伯克利分校的研究人員研發了一種機器人學習技術。通過這項技術使機器人能夠在完成一個動作後根據環境情況自助規劃後續動作。這項技術的研發初衷是讓機器人在陌生環境中能夠自主分辨並操控之前從未遇到過的物體。

未來這項技術可以幫助無人駕駛汽車預測道路上將要發生的事件,並能應用到家庭智慧型機器人助手中。這項技術的初始模型是比較簡單的,主要內容是讓機器人從自主遊戲中學習簡單的手動技能。

這項技術被稱為視覺預見技術。機器人應用該項技術後,如果執行特定序列的動作,

就能預測自己的攝像頭下一步會看到什麼。 這些機器人的想像就現在來說還是相對簡單的——對未來只有幾秒鐘的預測——但是這足以讓機器人搞清如何在沒有障礙物的情況下在桌子上移動物體。 這項技術的關鍵之處在于,機器人能在無人説明或預先沒有物理知識、環境或物體概況的情況下,去學習完成這些任務。 究其原因,機器人的視覺預知是從無人在場和監督的探索中完全從零開始學習的,
這種探索是指機器人在桌子上移動物體。 經過這個初級階段之後,機器人建立起對環境的預測模型,並且可以使用這個模型來操控它之前從未見過的新物體。

伯克利加州大學電氣工程與電腦科學系的實驗室研發了這一技術。

該系助理教授謝爾蓋•萊文(Sergey Levine)說:“正如人可以想像自己該如何將環境中的物體移動到特定的位置一樣,這一技術可以使機器人設想不同的行為將如何影響它周圍的世界。該技術也可以讓機器人實現在複雜的現實狀況中對高度靈活的技能進行智慧規劃。”

伯克利加州大學電氣工程與電腦科學系的實驗室研究小組將於12月5日在加州長灘的神經資訊處理系統大會上進行視覺預見技術的演示。

該系統的核心是基於迴圈卷積視頻預測或動態神經對流(DNA)的深度學習技術。 基於DNA的模型是根據機器人的動作預測圖像中的畫面如何從一幀移動到下一幀。 近來對這類模型的改進以及對機器人自主規劃能力的極大提高使得基於視頻預測的機器人控制已經能夠執行日益複雜的任務,例如圍繞障礙滑動物體並重新定位多個物體物件。

萊文實驗室的博士生、原DNA模型發明者Chelsea Finn表示:“在過去,機器人在人類監管者的協助和回饋中學會了許多技能。而 如今這項技術令人興奮的點是——機器人可以完全依靠自己學習一系列視覺物體操控技能。”

利用該項新技術,機器人先將物體推到桌子上,然後使用學到的預測模型去選擇將物體移動至目標位置的運動方式。 機器人利用從原始攝像頭觀察到的學習模型去引導自己如何避開障礙物並將物體推到障礙物周圍。

萊文實驗室參與該專案的研究生Frederik Ebert說:“在沒有任何教師的情況下,人類通過與其一生中接觸的各種物體和數百萬次的相互作用去學習物件操控技術。我們已經證明,建立一個機器人系統也可以利用大量自主收集的資料去學習廣泛適用的操控技能,特別是物體推動技能。”

由於通過視頻預測所實現的控制僅依賴于由機器人自主收集的觀察,例如攝像頭圖像,因此所得到的方法是通用且廣泛適用的。傳統電腦視覺方法需要人類手動標記數千甚至數百萬圖像,而構建視頻預測模型僅需要未注釋的視頻並且完全可由機器人自主收集。 事實上,視頻預測模型已經被應用於從人類活動到駕駛涉及一切事物的資料集,結果也令人信服。

“孩子們可以通過玩玩具,移動和抓住玩具等來瞭解周圍世界。 我們的研究目標是使機器人也能做到這一點:通過自主交互瞭解世界如何運行。”萊文說, “雖然這個機器人的能力仍是有限的,但它是完全通過自主學習獲取技能。這意味著,通過建立之前觀察到的交互作用模式的基礎上,機器人可以預測與從未見過的物體之間複雜的實體交互。

伯克利科學家們一直在研究通過視頻預測實現控制技術。他們注重於進一步改進視頻預測和基於預測的控制,以及開發更複雜的方法,使機器人可以收集更多的重點視頻資料用於執行複雜的任務,例如拾取和放置物體、操控諸如布或繩一類柔軟和可變形的物體、以及組裝等。

然後使用學到的預測模型去選擇將物體移動至目標位置的運動方式。 機器人利用從原始攝像頭觀察到的學習模型去引導自己如何避開障礙物並將物體推到障礙物周圍。

萊文實驗室參與該專案的研究生Frederik Ebert說:“在沒有任何教師的情況下,人類通過與其一生中接觸的各種物體和數百萬次的相互作用去學習物件操控技術。我們已經證明,建立一個機器人系統也可以利用大量自主收集的資料去學習廣泛適用的操控技能,特別是物體推動技能。”

由於通過視頻預測所實現的控制僅依賴于由機器人自主收集的觀察,例如攝像頭圖像,因此所得到的方法是通用且廣泛適用的。傳統電腦視覺方法需要人類手動標記數千甚至數百萬圖像,而構建視頻預測模型僅需要未注釋的視頻並且完全可由機器人自主收集。 事實上,視頻預測模型已經被應用於從人類活動到駕駛涉及一切事物的資料集,結果也令人信服。

“孩子們可以通過玩玩具,移動和抓住玩具等來瞭解周圍世界。 我們的研究目標是使機器人也能做到這一點:通過自主交互瞭解世界如何運行。”萊文說, “雖然這個機器人的能力仍是有限的,但它是完全通過自主學習獲取技能。這意味著,通過建立之前觀察到的交互作用模式的基礎上,機器人可以預測與從未見過的物體之間複雜的實體交互。

伯克利科學家們一直在研究通過視頻預測實現控制技術。他們注重於進一步改進視頻預測和基於預測的控制,以及開發更複雜的方法,使機器人可以收集更多的重點視頻資料用於執行複雜的任務,例如拾取和放置物體、操控諸如布或繩一類柔軟和可變形的物體、以及組裝等。