您的位置:首頁>科技>正文

年度必看AI論文:生成式非對抗網路(停止對抗,用愛學習)

洋蔥阿凱吾 發自 CMU

量子位·QbitAI 出品

震驚!(本次使用已獲UC震驚部授權)

就在昨天, 人工智慧領域一個開創性的成果出現了:關於生成對抗網路(GAN)的最新論文出爐。

很多學者和業內人士, 都用震驚二字描述內心的波瀾。

這篇已經在arxiv上公佈的論文, 題目是:《STOPPING GAN VIOLENCE: GENERATIVE UNADVERSARIAL NETWORKS》, 並且已經作為會議論文提交SIGBOVIK 2017評審。 這個大會將於3月31日在卡內基梅隆大學召開。

在Reddit上, 有人評價這篇是自己近年唯一從頭到尾讀完的論文。 這麼重要的論文, 量子位看過之後, 趕緊跑來跟大家分享筆記。

核心摘要

神經網路苦對抗久矣。 吾聞生成對抗網路(GAN)暴力也, 不當立, 當立者乃生成式非對抗網路(GUN)。 在這一框架下, 我們同時訓練兩個模型。

一個是生成器G, 用以捕捉任何自認可以處理的任一資料分佈。 一個是激勵器M, 鼓勵G努力奮鬥。 在奮鬥的過程中, 兩個模型通過學習各自的差異而演變。

這個框架的理論基礎是博弈論,

並且可以看做是雙贏的結構, 兩個模型結成團隊以爭取最佳結果。 整個模型的原理如下:

△ 作者特別提示:低解析度、遠距離條件下觀看效果更佳

生成器G提出樣本:PROPS, 作為回應, 激勵器M給出確認和讚美:ACKS。 這樣兩個網路之間就產生了協同效應。

而此前的生成對抗網路, 要求生成器G和鑒別器D不斷對抗。

訓練過程如圖所示:(圖a) 在激勵器(紅線)的幫助下, 生成器(黃線)正為目標資料分佈(藍色虛線)而努力。 (圖b) 激勵得當的情況下, 生成器完成目標。 (圖c) 在激勵器的鼓舞下, 生成器還能額外做出10%的努力,

這不是錯誤, 而是激勵有效的證明。

在經過叨逼叨逼的試驗後, 結論如下:

這項研究表明, GAN這種一個神經網路對另一個神經網路施加暴力的行為, 不僅不道德而且不必要。 試驗顯示, 更幸福的網路性能更好。 事實上, 非對抗式學習在深度學習的廣闊天地中, 必將大有作。 下一步的研究將納入梯度等問題。

拜見作者

如此令人心曠神怡的論文, 由三位作者合作完成。 他們是:

半路出家, 文筆一流君Samuel

雲山霧罩, 自學成才君Sebastien

微小貢獻, 強行採訪君Joao

以上。

延伸

還記得開頭說的SIGBOVIK 2017大會麼?這個大會2007年首次召開, 組織方是SIGBOVIK, 也是一個腦洞大開的組織。 歡迎實在很閑的情況下自行搜索……

分隔線

Next Article
喜欢就按个赞吧!!!
点击关闭提示