《Image-to-Image Translation with Conditional Adversarial Networks》論文筆記


出處 CVPR2017

Motivation

嘗試用條件GAN網絡來做image translation,讓網絡自己學習圖片到圖片的映射函數,而不需要人工定制特征。

Introduction

作者從不同種類的語言翻譯類比,提出了Image translation的概念,並希望在給定足夠的訓練數據以后,訓練后的網絡能像完成自動語言翻譯的任務一樣自動地完成圖片的轉換任務。

(這圖對俺啟發挺大啊,嘻嘻)

 GAN損失函數:

L1損失函數:用於約束最終生成圖片和原圖的偏差不至太大

總損失函數:

 生成器G采用了Unet結構來做一些layer的skip,保留必要的信息不被變更。

 UNet是借鑒了[1]提出的架構

 

 

判別器D使用了PatchGAN的判定方式,在圖像的每個N\times N塊上去判斷是否為真,最終平均給出結果

源碼 https://github.com/phillipi/pix2pix

[1]O. Ronneberger, P. Fischer, and T. Brox. U-net: Convolutional networks for biomedical image segmentation. In MICCAI, pages 234–241. Springer, 2015.

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM