CVPR2017: SRResNet(SRGAN): Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network


首先看一下這篇文章的摘要

盡管利用CNN做圖像超分辨在速度和精度上都有了突破,然后關鍵的問題在於做高倍超分辨的時候恢復精細的紋理很有挑戰。當前的工作基本利用MSE做損失函數,但是產生的結果經常缺失高頻細節,感知效果不好。本文首次提出利用生成對抗網絡做高倍率超分辨,提出利用內容損失(perceptual loss) 和對抗損失(adversarial loss).

 

網絡結構:

其中:

SRResNet:就是只用生成器,損失函數是MSE loss或者VGG loss

SRGAN:用了生成器和判別器,損失函數用了perceptual loss,adversarial loss

 

損失函數:

定義了感知損失函數(Perceptual loss function)來訓練生成器:它是由內容損失和對抗損失的加權和。

內容損失(content loss):

(1) MSE

(2) 基於VGG

對抗損失(adversarial loss):

實驗結果:

以下是用不同的content loss做的試驗結果:

其中,

SRGAN-MSE表示對抗網絡中content loss只用MSE

SRGAN-VGG22表示(i=2, j=2)表示定義在low-level特征圖上的loss

 SRGAN-VGG54表示(i = 5, j = 4)表示定義在high-level特征圖上的loss。

SRResNet-MSE表示只用生成器,沒有判別器(即不用adversarial loss),生成器的損失函數為MSE,簡記為SRResNet

SRResNet-VGG22表示只用生成器,沒有判別器(即不用adversarial loss),生成器的損失函數為VGG low-level特征圖上的loss。

 

從試驗結果可以看出,SRResNet的PSNR最高,而SRGAN的看着更真實。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM