您的位置:首頁>科技>正文

美國軍方試圖令自主機器系統自我詮釋,中國的怎麼樣?

據麻省理工學院技術評論網站報導,美國情報人員和軍事人員也許將會極大程度地依賴機器學習來分析海量資料,控制日益增長的自主系統。 然而美國軍方不確定這是否會引發對某種演算法的盲目信賴。

美國國防高級研究計畫局(DARPA)正在為若干項目提供資金支援,旨在令人工智慧實現自我詮釋。 方法包括研發更深層次的機器學習系統,使之在設計階段就囊括了自我解釋的新型機器學習方法。 DARPA專案經理表示,人工智慧目前正在爆炸式增長,主要原因就是機器學習技術的發展,尤其是深度學習。

深度學習和其他機器學習技術在矽谷蓬勃發展,語音辨識和圖像分類水準明顯提高,並且在各種場景中得到了越來越多的應用,比如執法和醫藥領域,儘管這些應用領域一旦出現錯誤將會帶來嚴重後果,但是深度學習在發現資料模型的準確穩定性出乎人們的意料,而要理解其是如何做到的卻幾乎是不可能的。 這個學習過程在數學方面十分複雜,通常沒有辦法將它轉變為人類可以直接理解的東西。

雖然深度學習尤其難以理解,但是其他電腦學習技術也都具有挑戰性。 對於並非人工智慧領域專家的人來說,這些模型尤其不透明和難以理解。

深度學習由於它的格外複雜而顯得更加神秘。 它的靈感來源於大腦中的神經元回應並輸入學習的過程。

多層次的類比神經元和突觸被標記為資料,在學習的過程中它們的反應不斷調整,直到能夠識別出照片中的一隻貓,但是系統學習的模型被編碼在了數百萬計的神經元上,因此測試起來非常具有挑戰性。 比如,當深度學習網路識別出了一隻貓,但人們無法確定系統做出判斷的依據是圖片中的鬍鬚、耳朵,還是貓的毯子。

機器學習模型是否清晰通常並沒有那麼重要,但是對於嘗試用其來確定潛在目標的情報員來說卻必不可少,有很多關鍵的應用程式需要由此來解釋。

目前軍方正在研發不計其數的自主系統,毫無疑問都會依賴於類似深度學習的機器學習技術。

自主駕駛車輛和無人機將會在未來數年得到越來越多的應用,發揮更強大的作用。 可解釋性不只對驗證判斷做出的依據十分重要,還可以避免出現失誤。 如果圖像分類系統僅依靠表面紋理來識別貓咪,很有可能會和毛茸茸的地毯混淆,所以能夠給出解釋有利於開發者將系統升級得更加強大而準確,以避免由於依賴這些系統而可能出現的錯誤。

DARPA資助了13個不同的研究小組,追求一系列使得人工智慧更加便於解釋的方法。 其中一個團隊正在探索的是能夠包括某種解釋的新型深度學習系統,比如說強調出圖片區域中與分類識別最相關的部分。 研究者還通過連接電腦使得機器學習系統的工作原理在資料上更加清晰、視覺化甚至用更通俗的表達來解釋。

美國德克薩斯大學教授表示,該問題在採納了機器學習的其他領域也十分重要,比如醫藥、法律和教育。 如果缺乏解釋或推理,領域專家們是不會信賴機器學習給出的結果的,這就是為什麼許多領域專家拒絕採納機器學習或者深度學習的主要原因。

Next Article
喜欢就按个赞吧!!!
点击关闭提示