Shift-Net: Image Inpainting via Deep Feature Rearrangement


Shift-Net: Image Inpainting via Deep Feature Rearrangement 

Pytorch

引言

PatchMatch其一

PatchMatch其二

PatchMatch其三

PatchMatch其四

存在問題:傳統的基於PatchMatch,無法捕獲圖像的全局結構。基於CNN的使得修復結果模糊並且缺乏精細的紋理細節。

解決問題:提出了一種新的基於CNN的方法-ShiftNet。ShiftNet是一種GAN網絡;生成網絡以UNet為主干網絡,並在U-Net中添加了shift-connection layer;判別器網絡是一個5層的卷積網絡(卷積核4x4);

創新點:對於普通的U-net增加shift-connection layer,然后用已知區域的特征來shift到缺失區域。另外利用guidance loss來最小化decoder feature和gt的encoder feature的損失

本文提出了一種新的基於CNN的方法-ShiftNet。ShiftNet是一種GAN網絡;生成網絡以UNet為主干網絡,並在U-Net中添加了shift-connection layer;判別器網絡是一個5層的卷積網絡(卷積核4x4);

網絡整體損失是guidance,reconstruction, and adversarial losses等三種損失的加權和。

FCN

卷積網絡部分可以用VGG、GoogleNet、AlexNet作為預訓練的網絡,然后進行上采樣,根據上采樣的倍數不一樣分為FCN-8S、FCN-16S、FCN-32S

U-NET

U-net網絡基於FCN,用於語義分割網絡,也是編碼器解碼器結構。 首先進行Conv+Pooling下采樣;然后Deconv反卷積進行上采樣,crop之前的低層feature map,進行融合,也就是用將特征在channel維度拼接在一起;

然后再次上采樣。重復這個過程,直到獲得輸出的feature map。

 

 Shift-Net

 

 

Shift-Net是一種GAN網絡,生成網絡G以UNet為主干網絡,並在U-Net中添加了shift-connection layer;同時還有一個判別器網絡D是一個5層的卷積網絡

 

損失函數

 

 

實驗

 定性比較

 

 

 

 

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM