華文網

機器學習界“硝煙再起”:今年ICLR 8篇防禦相關論文,7篇被攻破

最近,一篇論文的橫空出世又引發了機器學習學術界的大討論。無論是被譽為“GANs 之父”的 Ian Goodfellow,還是谷歌大腦負責人 Jeff Dean 都參與其中。

論文地址:

https://arxiv.org/abs/1802.00420

這篇論文名為《Obfuscated Gradients Give a False Sense of Security: Circumventing Defenses to Adversarial Examples》(用混淆梯度製造虛假安全感:繞過對抗樣本防禦),

作者之一就是來自麻省理工學院的 Anish Athalye。

文章之所以引戰度很高,是因為 Anish Athalye 在其推特上宣稱,“對抗樣本防禦依然懸而未決。三天前的 ICLR 接收的論文中,我們已經攻破了其中 7/8 的防禦相關論文。”ICLR 會議 (the International Conference on Leaning Representations) 是一個在深度學習領域極具行業影響力的學術會議。

Anish Athalye 還表態稱:“我們研究了 ICLR 論文,結果並不令人滿意”。其論文也宣稱,“混淆梯度”給防禦對抗樣本帶來了虛假的安全感,

儘管基於混淆梯度的防禦可以打敗基於優化的攻擊,但這樣的防禦仍能被攻破。

具體而言,他們的樣本研究試驗了 ICLR 2018 接收的所有防禦措施,其中混淆梯度的使用非常普遍,8 個防禦中 7 個依靠混淆梯度,但他們的新型攻擊技術依然成功攻破了 7 個。

GitHub 地址:

https://github.com/anishathalye/obfuscated-gradients

在 Anish Athalye 的 GitHub 中,他演示了如何對貓的圖像加入輕微的干擾就能“欺騙”機器的例子。最後,機器將貓頭像錯認成“果醬”。他認為,使用梯度下降法就能輕易獲得這樣的“欺騙性圖像”。

對於 Anish Athalye 的這番言論,Ian Goodfellow 提出質疑。他說:“文中提出的‘混淆梯度’其實是給‘梯度遮罩’換個名號而已”。

圖丨多種對抗性樣本防禦方法在攻擊下的魯棒性

目前,Anish Athalye 尚未回應 Ian Goodfellow 的這一觀點。