概率程式設計助力機器學習,
或許將取代深度學習!
從本質上來講, 目前最先進的機器學習演算法也是“黑盒子”, 美國國防部高級研究計畫局(DARPA)正在資助各研究機構, 試圖解開黑盒子之謎。
智慧代理和軍事人員可能會很大程度地依賴機器學習演算法去解析大量資料, 並控制日益增多的自控系統。 但是, 美國軍方並不希望他們僅僅只能盲目地依靠演算法。
DARPA是美國國防部的一個下屬部門, 它正在積極探索和利用新興技術。 目前, 它正在資助幾個試圖破解人工智慧系統可解釋性難題的研究專案。
DARPA專案負責人David Gunning說:“我們現在正處於人工智慧的爆炸時代, 但是目前的機器學習演算法通常讓人難以解釋, 尤其是深度學習。 不可解釋性是機器學習領域的一大致命性弱點, 因此我們資助了相關幾個項目, 我們相信不久之後可以破解這個難題。 ”
在矽谷, 深度學習的革命已經到來。 語言識別、圖像分類技術有的很大程度的提高, 並且它們正在被用於越來越多的環境, 比如執法和醫學領域。 但是, 這些領域中出現錯誤經常會導致嚴重的後果。 儘管深度學習能夠很好地找出資料中的模式, 但是卻不能夠讓人理解深度學習系統是如何得出這些結論的。
深度學習也正因為其複雜性而讓人感到神秘。 它是從大腦中的神經元對輸入信號響應過程中受到啟示而提出來的。 研究人員通常調節被資料標記的受激神經元和的數值來達到識別圖像的目的, 然而深層網路中通常含有數以百萬計的神經元, 要想從這眾多的神經元中檢索出你所需要的資訊這是相當具有挑戰性的。
通常而言,
Gunning補充說, 軍隊正在開發眾多的自控系統, 毫無疑問, 這些自控系統將會嚴重地依賴機器學習技術, 如深度學習。 無人駕駛汽車和空中無人機將在未來幾年越來越普遍, 它們的功能也會越來越強大。
DARPA一共資助了13個不同的研究團隊。
其中一個團隊來自Charles River Analytics(Charles River Analytics為包括美國軍方在內的各種客戶開發高科技工具), 該團隊正在探索一種新的深度學習系統, 並為次系統增加了可解釋性。 例如, 突出與分類最相關的圖像區域。 另外, 研究人員還在繼續測試該機器學習系統對資料、視覺化甚至自然語言的可解釋性。
另一個受資助是德州農工大學夏虎教授所領導的團隊, 他說可解釋性的機器學習系統在醫學、法律和教育等其他行業也很重要, 如果沒有解釋性, 域內的專家將不會信服結果, 這就是為什麼許多領域的專家拒絕採用機器學習或深度學習系統的最主要原因。