雷鋒網消息, 由多倫多大學與蒙特利爾大學的Karan Grewal、R Devon Hjelm、Yoshua Bengio三人近日合作發表的文章《Variance Regularizing Adversarial Learning》提出了一種方差正則化對抗學習方法(Variance Regularizing Adversarial Learning, VGAL)。 相比以往的對抗生成網路(GAN), VGAL 可以使鑒別器具有更加平滑輸出分佈特性, 並且在真樣本分佈與生成樣本分佈間設定一定的混疊區間, 從而提升 GAN 的生成效果。
以下內容是雷鋒網AI科技評論根據論文內容進行的部分編譯。
論文摘要
文章提出了一種新型的對抗訓練模型, 該演算法將鑒別器評分方法設計成服從雙模高斯分佈的“真/生成”指標變數。 為了實現這一設計, 該團隊使用原資料對抗訓練(meta-adversarial)來使高斯分類器與目標雙模分佈模型相匹配。
生成對抗網路(GAN)是一種用來訓練目標生成器的框架, 主要針對沒有明確定義的參數生成分佈, 以及沒有可跟蹤的似然函數等類型的問題。 訓練生產器依賴鑒別器發出的學習信號, 使用相對簡單的指標來區分生成樣本的與真實樣本。 為了匹配真實的分佈形式, 生成器參數將由鑒別器定義的損耗優化至最大, 通過類比使得生成器和鑒別器達到對立。
相比於最大似然估計的方法, 生成對抗網路可以獲得強大的識別能力並能夠生成具有鋒利、逼真邊緣的高品質的圖像。
提升生成對抗網路的穩定性的一條途徑是利用 Lipshitz 約束, 將幾乎不可區分的樣本賦予非同尋常的評分來避免鑒別器出現過擬合的情況。 這一方法使用一個相對弱於常用的如 Kullback-Leibler 或 Jensen-Shannon 的辨別標準, 這會使真資料集在低維支撐時的表現略有爭議。 Lipshitz 約束保證了資料壓縮的形式以及由鑒別器的輸出生成的平滑分佈。 這進一步保證了可以為生成器輸入一個非零的訓練信號。
對於鑒別器內的強制平滑機制, 其如何通過優化方法來影響生成器的品質目前仍未探明。 此外, 對Lipschitz 約束的測定目前還無法進行, 因此利用平滑方法目前只能近似地通過輔助優化手段來實現諸如削減權重或者梯度懲罰的目標。
文章使用一種略微不同的方式來學習平滑的鑒別器函數, 通過使用“真/生成”指示變數來訓練高斯分類器, 而不是懲罰鑒別器來使約束變成 non-Lipschitz 約束。 這種取決於混合分量之間的混疊的優化方式能夠給生成器一個弱標準,
圖一, 鑒別器輸出長條圖, 包含真實樣本(藍色)和生成樣本(紅色),
圖二, 多種 GAN 方法的鑒別器輸出曲線與鑒別器梯度曲線對比。 相比其他方法,論文提出的 VRAL 展示出平滑的判決邊界。
圖三,論文方法(VRAL)基於經典資料集的生成測試結果(所有模型的訓練使用標準 DCGAN 架構並由 Adam 方法進行優化)。
via https://arxiv.org/abs/1707.00309,雷鋒網
相比其他方法,論文提出的 VRAL 展示出平滑的判決邊界。圖三,論文方法(VRAL)基於經典資料集的生成測試結果(所有模型的訓練使用標準 DCGAN 架構並由 Adam 方法進行優化)。
via https://arxiv.org/abs/1707.00309,雷鋒網