最近的機器學習技術大都是“黑盒”的, 美國國防高級研究計畫局(DARPA)現在正在努力資助其中的一部分變為“白盒”。
智慧代理和軍事操作人員在解釋大規模資料和控制逐漸增長的軍事自助系統時,可能會非常依賴於機器學習技術。 現在美軍希望確定, 它們並不是在盲目地依賴著這些人工智慧演算法。
DARPA 的專案經理 David Gunning說:“我們現在真的面臨著AI技術的大爆炸。 ”
David Gunning正在著力於資助一些可以對它們自身技術和推算進行解釋的AI技術的開發。 他表示, 其工作的重點主要就是機器學習和深度學習。
深度學習和其他機器學習技術已經如暴風雨一樣洗禮了整個矽谷, 這些技術很大的改進了語音辨識和圖像分類技術。 這些機器學習技術也逐漸被用於更多的領域中, 比如說法律執行和醫藥, 這些一旦發生錯誤就會造成嚴重後果的領域。
雖然深度學習可以非常好地找到資料中的模型,
深度學習特別難以解釋, 解釋其他機器學習技術也可能同樣具有挑戰性, David Gunning說:“這些模型都非常地不透明, 所以很難讓人們解釋, 尤其是當他們不是AI領域的專家的時候。 ”
由於深度學習特別的複雜, 所以它顯得更為神秘。 簡單來說, 深度學習是受啟發於腦神經元對輸入資訊進行回應從而學習的過程。 許多層的類比神經元和突觸都被標記上了資料, 這些神經元和突觸的行為在學習的工程中不斷被調整, 直到它們學會如何進行識別。
比如說, 直到他們學會如何識別一種圖片中的貓。 但是通過機器學習出來的模型, 是被數百萬個神經元作為加權特徵的值而編碼的, 所以檢驗一遍這個模型是非常具有挑戰性的。 當一個深度學習網路可以識別一隻貓的時候, 我們並不知道這個學習系統到底是聚焦在這個圖片中的貓須, 貓咪的耳朵, 還是貓咪的毯子上的。
通常, 機器學習是否透明可能並不是很重要, 但是對於一個試圖識別潛在目標的情報官員來說, 他在使用的機器識別技術是否透明就很重要了。 David Gunning說:“在一些關鍵性的應用上, 是需要解釋的。 ”
David Gunning補充說道, 軍方現在正在開發很多自助系統, 毫無疑問這些系統將很大程度上依賴於機器學習技術,
可解釋性並不是只對驗證結果有用, 它同樣也可以防止事情出錯。 一個通過單純的關注圖片紋理部分而學會對貓咪進行分類的圖片分類系統, 很可能就會被一個毛茸茸的地毯而誤導。 所以提供演算法的解釋, 可以讓研發人員提高其系統的健壯性, 也可以説明依賴於這些演算法的系統避免很多錯誤。
DARPA 正在資助13個不同的研發團隊, 這些團隊正在致力於探索一系列的方法, 讓AI技術更加透明, 更加容易解釋。
一個正在受資助的團隊來自於Charles River Analytics——一家為各種各樣的客戶開發高科技工具的公司。
來自德州農工大學 Xia Hu 教授表示, 這些研究同樣對其他正在應用人工智慧技術的領域非常重要, 比如說醫藥、法律和教育領域。 如果這些機器學習演算法, 沒有合理的解釋或者推算過程的話, 很多專家不會相信由這些機器學習所產生的結果。 這也是為什麼很多領域的專家, 拒絕使用機器學習或者深度學習技術。