出處 CVPR2017
Motivation
嘗試用條件GAN網絡來做image translation,讓網絡自己學習圖片到圖片的映射函數,而不需要人工定制特征。
Introduction
作者從不同種類的語言翻譯類比,提出了Image translation的概念,並希望在給定足夠的訓練數據以后,訓練后的網絡能像完成自動語言翻譯的任務一樣自動地完成圖片的轉換任務。
(這圖對俺啟發挺大啊,嘻嘻)
GAN損失函數:
L1損失函數:用於約束最終生成圖片和原圖的偏差不至太大
總損失函數:
生成器G采用了Unet結構來做一些layer的skip,保留必要的信息不被變更。
UNet是借鑒了[1]提出的架構
判別器D使用了PatchGAN的判定方式,在圖像的每個塊上去判斷是否為真,最終平均給出結果
源碼 https://github.com/phillipi/pix2pix
[1]O. Ronneberger, P. Fischer, and T. Brox. U-net: Convolutional networks for biomedical image segmentation. In MICCAI, pages 234–241. Springer, 2015.