選自arXiv.org
機器之心編譯
參與:李澤南
論文:Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks
摘要:圖像到圖像轉換是一類視覺和圖形問題, 其目標是通過訓練學習輸入圖片的風格, 將其映射到框架類似的輸出圖片中。 儘管對於很多工而言, 配對訓練資料可遇不可求。 我們提出了一種在沒有配對的情況下從來源域 X 到目標域 Y 進行圖像轉換的方式。 我們的目標是實現 G:X→ Y, 其中 G(X) 的圖像分佈與使用對抗性損失分佈的 Y 難以區分。 因為映射非常不完全, 我們將其以 F:Y→ X 的方式建立映射, 同時引入迴圈一致性損失函數來推動 F(G(X))≈X(反之亦然)。 我們在無法配對的訓練資料中演示了新方法的成果,
圖 1:給定兩個無序圖像集 X 和 Y, CycleGAN 可以自動對它們進行互相「翻譯」。
圖 3:該模型包含兩個映射函數 G : X ! Y 和 F : Y ! X, 以及相關的對抗式鑒別器 DY 和 DX。
圖 5:在道路圖片上, CycleGAN 與一些其他方法效果的對比
圖 8:CycleGAN 處理 pix2pix 配對資料集的效果
在論文中, 作者表示儘管這一研究在很多包含紋理與顏色的風格轉換任務中表現優秀, 但它在一些包含幾何圖形變化的任務中(如貓→ 狗轉換)仍無法達到令人滿意的表現。 研究人員在未來將向這一方向展開新的探索。
相關連結
GitHub:https://github.com/junyanz/CycleGAN
論文連結:https://arxiv.org/abs/1703.10593