最近, 一篇論文的橫空出世又引發了機器學習學術界的大討論。 無論是被譽為“GANs 之父”的 Ian Goodfellow, 還是谷歌大腦負責人 Jeff Dean 都參與其中。
論文地址:
https://arxiv.org/abs/1802.00420
這篇論文名為《Obfuscated Gradients Give a False Sense of Security: Circumventing Defenses to Adversarial Examples》(用混淆梯度製造虛假安全感:繞過對抗樣本防禦), 作者之一就是來自麻省理工學院的 Anish Athalye。
文章之所以引戰度很高, 是因為 Anish Athalye 在其推特上宣稱, “對抗樣本防禦依然懸而未決。 三天前的 ICLR 接收的論文中, 我們已經攻破了其中 7/8 的防禦相關論文。 ”ICLR 會議 (the International Conference on Leaning Representations) 是一個在深度學習領域極具行業影響力的學術會議。
Anish Athalye 還表態稱:“我們研究了 ICLR 論文, 結果並不令人滿意”。 其論文也宣稱,
具體而言, 他們的樣本研究試驗了 ICLR 2018 接收的所有防禦措施, 其中混淆梯度的使用非常普遍, 8 個防禦中 7 個依靠混淆梯度, 但他們的新型攻擊技術依然成功攻破了 7 個。
GitHub 地址:
https://github.com/anishathalye/obfuscated-gradients
在 Anish Athalye 的 GitHub 中, 他演示了如何對貓的圖像加入輕微的干擾就能“欺騙”機器的例子。 最後, 機器將貓頭像錯認成“果醬”。 他認為, 使用梯度下降法就能輕易獲得這樣的“欺騙性圖像”。
對於 Anish Athalye 的這番言論, Ian Goodfellow 提出質疑。 他說:“文中提出的‘混淆梯度’其實是給‘梯度遮罩’換個名號而已”。
圖丨多種對抗性樣本防禦方法在攻擊下的魯棒性
目前, Anish Athalye 尚未回應 Ian Goodfellow 的這一觀點。