您的位置:首頁>科技>正文

美國軍方希望打開機器學習技術的“黑匣子”

最近的機器學習技術大都是“黑盒”的, 美國國防高級研究計畫局(DARPA)現在正在努力資助其中的一部分變為“白盒”。

智慧代理和軍事操作人員在解釋大規模資料和控制逐漸增長的軍事自助系統時,可能會非常依賴於機器學習技術。 現在美軍希望確定, 它們並不是在盲目地依賴著這些人工智慧演算法。

DARPA 的專案經理 David Gunning說:“我們現在真的面臨著AI技術的大爆炸。 ”

David Gunning正在著力於資助一些可以對它們自身技術和推算進行解釋的AI技術的開發。 他表示, 其工作的重點主要就是機器學習和深度學習。

深度學習和其他機器學習技術已經如暴風雨一樣洗禮了整個矽谷, 這些技術很大的改進了語音辨識和圖像分類技術。 這些機器學習技術也逐漸被用於更多的領域中, 比如說法律執行和醫藥, 這些一旦發生錯誤就會造成嚴重後果的領域。

雖然深度學習可以非常好地找到資料中的模型,

但是現在我們還是不瞭解它是如何做到的。 從數學的角度出發, 深度學習對資料的學習過程是非常複雜的。 所以在很多時候, 這些學習過程並不能被人們理解。

深度學習特別難以解釋, 解釋其他機器學習技術也可能同樣具有挑戰性, David Gunning說:“這些模型都非常地不透明, 所以很難讓人們解釋, 尤其是當他們不是AI領域的專家的時候。 ”

由於深度學習特別的複雜, 所以它顯得更為神秘。 簡單來說, 深度學習是受啟發於腦神經元對輸入資訊進行回應從而學習的過程。 許多層的類比神經元和突觸都被標記上了資料, 這些神經元和突觸的行為在學習的工程中不斷被調整, 直到它們學會如何進行識別。

比如說, 直到他們學會如何識別一種圖片中的貓。 但是通過機器學習出來的模型, 是被數百萬個神經元作為加權特徵的值而編碼的, 所以檢驗一遍這個模型是非常具有挑戰性的。 當一個深度學習網路可以識別一隻貓的時候, 我們並不知道這個學習系統到底是聚焦在這個圖片中的貓須, 貓咪的耳朵, 還是貓咪的毯子上的。

通常, 機器學習是否透明可能並不是很重要, 但是對於一個試圖識別潛在目標的情報官員來說, 他在使用的機器識別技術是否透明就很重要了。 David Gunning說:“在一些關鍵性的應用上, 是需要解釋的。 ”

David Gunning補充說道, 軍方現在正在開發很多自助系統, 毫無疑問這些系統將很大程度上依賴於機器學習技術,

比如說深度學習、自動駕駛汽車、無人機。 這些系統也將在未來的幾年中逐漸投入到使用中, 這些系統對軍事領域的影響也會越來越大。

可解釋性並不是只對驗證結果有用, 它同樣也可以防止事情出錯。 一個通過單純的關注圖片紋理部分而學會對貓咪進行分類的圖片分類系統, 很可能就會被一個毛茸茸的地毯而誤導。 所以提供演算法的解釋, 可以讓研發人員提高其系統的健壯性, 也可以説明依賴於這些演算法的系統避免很多錯誤。

DARPA 正在資助13個不同的研發團隊, 這些團隊正在致力於探索一系列的方法, 讓AI技術更加透明, 更加容易解釋。

一個正在受資助的團隊來自於Charles River Analytics——一家為各種各樣的客戶開發高科技工具的公司。

它們的客戶之一就是美國軍方。 這個團隊現在正在致力於開發包含解譯器的新的深度學習系統, 比如說可以標記與圖片分類最相關的圖片區域的學習系統。 這個團隊的研究人員也在對電腦的介面進行探索, 他們希望找到可以讓機器學習系統在處理資料, 進行視覺化, 甚至自然語言處理時, 變得更加明確的電腦介面。

來自德州農工大學 Xia Hu 教授表示, 這些研究同樣對其他正在應用人工智慧技術的領域非常重要, 比如說醫藥、法律和教育領域。 如果這些機器學習演算法, 沒有合理的解釋或者推算過程的話, 很多專家不會相信由這些機器學習所產生的結果。 這也是為什麼很多領域的專家, 拒絕使用機器學習或者深度學習技術。

Next Article
喜欢就按个赞吧!!!
点击关闭提示