您的位置:首頁>科技>正文

DARPA教AI修復網路,學壞了怎麼辦?

更多全球網路安全資訊盡在E安全官網www.easyaq.com

E安全12月28日訊 2016年8月, 美國國防部高級研究計畫局(簡稱DARPA)主辦了網路超級挑戰賽(CGC), 以證明人工智慧(AI)能夠憑藉機器速度發現並修復軟體中的缺陷。 多位元電腦安全大師前往美國拉斯維加斯參加此次比賽。 一年之後, DARPA官員與競賽獲獎者們達成共識:在網路保護這一貓鼠遊戲當中, AI正在迅速成為能夠為國防部方面帶來對抗優勢的重要因素。

回顧:CGC超級挑戰賽中, 各支隊伍進行了近12個小時的奮戰, 旨在比拼誰的自動化系統能夠更好地識別並修復軟體中的漏洞,

其中冠軍的獎金甚至高達200萬美元(約合人民幣1311萬元)。

一年時間, AI技術有效縮短反應速度

匹茲堡初創企業ForAllSecure公司CEO、競賽勝方領隊大衛-布拉姆雷指出, “目前的電腦安全性問題太過複雜, 涉及多個流程。 下載補丁、決定是否安裝並確保其不會對其它任務造成影響。

我們需要縮短人為參與度, 讓這些操作能夠在數分鐘內完成, 不再像過去那樣耗費數小時甚至數天。 ”

在發起這次網路競賽時, DARPA方面要求各位研究人員設想通過機器學習技術實現網路安全的增強與賦能。 實際上美國國防以外的行業也一直存在著相關呼籲之聲。

哥倫比亞大學國際與公共事務學院研究員傑森-希利在2016年美國春季眾議院軍事委員會聽證會中強調, “股票交易已經由演算法負責控制, 人力交易員在很大程度上已經顯得多餘。 希望這樣的作法被引入到未來網路衝突的處理當中?如果能夠實現, 將會對美國網路司令部的人員配置、專案以及美國網路防禦的整個體系帶來巨大的影響”。

在DARPA的這次網路競賽當中, 各獲勝團隊紛紛拿出了立足AI實現的攻擊與防禦工具。 他們教導機器如何快速準確地攻克其它團隊系統當中的已知防禦措施, 並利用機器智慧快速將適當補丁部署至自己的系統當中。

DARPA資訊創新辦公室專案經理達斯汀-弗雷澤表示,

AI在網路場景中作用的可能性在本次競賽開始之前一直是個“懸而未決的難題”。 此次競賽的結果表明, 人類正一步步邁向利用自動化手段發現漏洞並找到補救措施的光明彼岸。

如果情況真是如此, 那麼這一切可能會給軍事網路運營機構產生深遠的思路性影響。 必須強調的是, 面對目前迅速演變的威脅形勢, 軍事網路運營機構往往疲於追趕而無法占得先機。 軍事領導者希望構建起具備自我修復能力的網路體系。

AI技術目前存在的難題

弗雷澤描述了2016年這次競賽當中各參賽隊伍所面對的典型場景。 在這一場景當中, 運營人員檢測到軟體漏洞, 並利用其攻擊對手的系統。 對方部署一款補丁, 而攻擊方則在下一輪行動中識別此補丁並設計出對應的後續利用手段。

弗雷澤表示, “在20分鐘之內, 我們就觀察到發現漏洞、部署補丁、攻克補丁、反攻克等一系列行動。 ”就當前安全形勢來講, “如果手動操作, 這種交互可能需要數天、數周甚至數個月時間才可能完成。 ”

但這並不是說AI很快就將重塑整個軍事網路。 研究人員們指出, 儘管DARPA挑戰賽已經過去了一年多, 但他們仍然需要取得進一步重大進展才有可能將機器學習技術作為一類大規模網路資產加以運營。

考慮AI被反利用的可能性

布拉姆利警告稱,任何在網路環境中使用AI作為軍事用途的機構都必須考慮到敵對方使用反AI方法的可能性:如果我們的電腦能夠學習,那麼敵對方可能會以此為突破口對其進行誤導。他進一步補充稱,“如果網路安全開始轉向AI驅動,惡意分子就會轉而攻擊AI並向其教授一些邪惡的技能。如果將控制權交給AI,在其學習到邪惡技能之後,很容易引發無法控制的糟糕局面。

AI在特定領域並不能發揮優勢

除此之外,AI在某些領域也很難真正發揮自己的學習能力。舉例來說,電腦能夠通過學習瞭解如何發現遭到破壞的事物,但其很難發現面臨潛在破壞風險的事物。弗雷澤表示,“一旦其中存在某些類似於邏輯錯誤的狀況(特別是那些難以量化的、非破壞性狀況),自動化方案往往就無法準確發現威脅。另外,在某一應用程式當中可以接受的行為,在另一應用程式當中有可能代表著非常嚴重的缺陷,這具體取決於實際情境。人類直覺能夠很好地解決這些問題,但機器則不行。

儘管存在上述障礙,但研究人員確實看到了以自動化方式解決網路安全領域內一些日常工作的可能性與發展潛力。DARPA目前還沒有公佈關於AI網路保護應用的正式計畫,不過隨著人們對於商業化AI方案接受程度的日益提升,相信DARPA以及來自其它部門與領域的研究人員們將繼續探索這種值得關注的可能性。

考慮AI被反利用的可能性

布拉姆利警告稱,任何在網路環境中使用AI作為軍事用途的機構都必須考慮到敵對方使用反AI方法的可能性:如果我們的電腦能夠學習,那麼敵對方可能會以此為突破口對其進行誤導。他進一步補充稱,“如果網路安全開始轉向AI驅動,惡意分子就會轉而攻擊AI並向其教授一些邪惡的技能。如果將控制權交給AI,在其學習到邪惡技能之後,很容易引發無法控制的糟糕局面。

AI在特定領域並不能發揮優勢

除此之外,AI在某些領域也很難真正發揮自己的學習能力。舉例來說,電腦能夠通過學習瞭解如何發現遭到破壞的事物,但其很難發現面臨潛在破壞風險的事物。弗雷澤表示,“一旦其中存在某些類似於邏輯錯誤的狀況(特別是那些難以量化的、非破壞性狀況),自動化方案往往就無法準確發現威脅。另外,在某一應用程式當中可以接受的行為,在另一應用程式當中有可能代表著非常嚴重的缺陷,這具體取決於實際情境。人類直覺能夠很好地解決這些問題,但機器則不行。

儘管存在上述障礙,但研究人員確實看到了以自動化方式解決網路安全領域內一些日常工作的可能性與發展潛力。DARPA目前還沒有公佈關於AI網路保護應用的正式計畫,不過隨著人們對於商業化AI方案接受程度的日益提升,相信DARPA以及來自其它部門與領域的研究人員們將繼續探索這種值得關注的可能性。

Next Article
喜欢就按个赞吧!!!
点击关闭提示