您的位置:首頁>科技>正文

美國國防部再發力:構建新型機器學習系統

概率程式設計助力機器學習, 或許將取代深度學習!

從本質上來講, 目前最先進的機器學習演算法也是“黑盒子”, 美國國防部高級研究計畫局(DARPA)正在資助各研究機構, 試圖解開黑盒子之謎。

智慧代理和軍事人員可能會很大程度地依賴機器學習演算法去解析大量資料, 並控制日益增多的自控系統。 但是, 美國軍方並不希望他們僅僅只能盲目地依靠演算法。

DARPA是美國國防部的一個下屬部門, 它正在積極探索和利用新興技術。 目前, 它正在資助幾個試圖破解人工智慧系統可解釋性難題的研究專案。

這些項目不僅要找出機器學習的可解釋性的根據, 還要為設計新型可解釋性機器學習系統提供進一步的指導。

DARPA專案負責人David Gunning說:“我們現在正處於人工智慧的爆炸時代, 但是目前的機器學習演算法通常讓人難以解釋, 尤其是深度學習。 不可解釋性是機器學習領域的一大致命性弱點, 因此我們資助了相關幾個項目, 我們相信不久之後可以破解這個難題。 ”

在矽谷, 深度學習的革命已經到來。 語言識別、圖像分類技術有的很大程度的提高, 並且它們正在被用於越來越多的環境, 比如執法和醫學領域。 但是, 這些領域中出現錯誤經常會導致嚴重的後果。 儘管深度學習能夠很好地找出資料中的模式, 但是卻不能夠讓人理解深度學習系統是如何得出這些結論的。

在數學上, 這個學習過程通常是很複雜的, 通常沒有辦法轉化成人們能夠理解的東西。 儘管深度學習尤其難以解釋, 其它的機器學習演算法也同樣面臨著挑戰。 尤其是對於那些非人工智慧領域的專家, 這些模型非常不透明, 讓人難以理解

深度學習也正因為其複雜性而讓人感到神秘。 它是從大腦中的神經元對輸入信號響應過程中受到啟示而提出來的。 研究人員通常調節被資料標記的受激神經元和的數值來達到識別圖像的目的, 然而深層網路中通常含有數以百萬計的神經元, 要想從這眾多的神經元中檢索出你所需要的資訊這是相當具有挑戰性的。

通常而言,

機器學習模型難以解釋無關緊要, 但是如果要用機器學習系統去識別特定目標, 可解釋性就變得很重要的。 目前有許多運用都需要機器學習系統具有可接受性。

Gunning補充說, 軍隊正在開發眾多的自控系統, 毫無疑問, 這些自控系統將會嚴重地依賴機器學習技術, 如深度學習。 無人駕駛汽車和空中無人機將在未來幾年越來越普遍, 它們的功能也會越來越強大。

DARPA一共資助了13個不同的研究團隊。

其中一個團隊來自Charles River Analytics(Charles River Analytics為包括美國軍方在內的各種客戶開發高科技工具), 該團隊正在探索一種新的深度學習系統, 並為次系統增加了可解釋性。 例如, 突出與分類最相關的圖像區域。 另外, 研究人員還在繼續測試該機器學習系統對資料、視覺化甚至自然語言的可解釋性。

另一個受資助是德州農工大學夏虎教授所領導的團隊, 他說可解釋性的機器學習系統在醫學、法律和教育等其他行業也很重要, 如果沒有解釋性, 域內的專家將不會信服結果, 這就是為什麼許多領域的專家拒絕採用機器學習或深度學習系統的最主要原因。

Next Article
喜欢就按个赞吧!!!
点击关闭提示