您的位置:首頁>正文

機器學習界“硝煙再起”:今年ICLR 8篇防禦相關論文,7篇被攻破

最近, 一篇論文的橫空出世又引發了機器學習學術界的大討論。 無論是被譽為“GANs 之父”的 Ian Goodfellow, 還是谷歌大腦負責人 Jeff Dean 都參與其中。

論文地址:

https://arxiv.org/abs/1802.00420

這篇論文名為《Obfuscated Gradients Give a False Sense of Security: Circumventing Defenses to Adversarial Examples》(用混淆梯度製造虛假安全感:繞過對抗樣本防禦), 作者之一就是來自麻省理工學院的 Anish Athalye。

文章之所以引戰度很高, 是因為 Anish Athalye 在其推特上宣稱, “對抗樣本防禦依然懸而未決。 三天前的 ICLR 接收的論文中, 我們已經攻破了其中 7/8 的防禦相關論文。 ”ICLR 會議 (the International Conference on Leaning Representations) 是一個在深度學習領域極具行業影響力的學術會議。

Anish Athalye 還表態稱:“我們研究了 ICLR 論文, 結果並不令人滿意”。 其論文也宣稱,

“混淆梯度”給防禦對抗樣本帶來了虛假的安全感, 儘管基於混淆梯度的防禦可以打敗基於優化的攻擊, 但這樣的防禦仍能被攻破。

具體而言, 他們的樣本研究試驗了 ICLR 2018 接收的所有防禦措施, 其中混淆梯度的使用非常普遍, 8 個防禦中 7 個依靠混淆梯度, 但他們的新型攻擊技術依然成功攻破了 7 個。

GitHub 地址:

https://github.com/anishathalye/obfuscated-gradients

在 Anish Athalye 的 GitHub 中, 他演示了如何對貓的圖像加入輕微的干擾就能“欺騙”機器的例子。 最後, 機器將貓頭像錯認成“果醬”。 他認為, 使用梯度下降法就能輕易獲得這樣的“欺騙性圖像”。

對於 Anish Athalye 的這番言論, Ian Goodfellow 提出質疑。 他說:“文中提出的‘混淆梯度’其實是給‘梯度遮罩’換個名號而已”。

圖丨多種對抗性樣本防禦方法在攻擊下的魯棒性

目前, Anish Athalye 尚未回應 Ian Goodfellow 的這一觀點。

同類文章
Next Article
喜欢就按个赞吧!!!
点击关闭提示