首先看一下這篇文章的摘要

盡管利用CNN做圖像超分辨在速度和精度上都有了突破,然后關鍵的問題在於做高倍超分辨的時候恢復精細的紋理很有挑戰。當前的工作基本利用MSE做損失函數,但是產生的結果經常缺失高頻細節,感知效果不好。本文首次提出利用生成對抗網絡做高倍率超分辨,提出利用內容損失(perceptual loss) 和對抗損失(adversarial loss).
網絡結構:

其中:
SRResNet:就是只用生成器,損失函數是MSE loss或者VGG loss
SRGAN:用了生成器和判別器,損失函數用了perceptual loss,adversarial loss
損失函數:
定義了感知損失函數(Perceptual loss function)來訓練生成器:它是由內容損失和對抗損失的加權和。

內容損失(content loss):
(1) MSE

(2) 基於VGG

對抗損失(adversarial loss):

實驗結果:
以下是用不同的content loss做的試驗結果:

其中,
SRGAN-MSE表示對抗網絡中content loss只用MSE
SRGAN-VGG22表示(i=2, j=2)表示定義在low-level特征圖上的loss
SRGAN-VGG54表示(i = 5, j = 4)表示定義在high-level特征圖上的loss。
SRResNet-MSE表示只用生成器,沒有判別器(即不用adversarial loss),生成器的損失函數為MSE,簡記為SRResNet
SRResNet-VGG22表示只用生成器,沒有判別器(即不用adversarial loss),生成器的損失函數為VGG low-level特征圖上的loss。



從試驗結果可以看出,SRResNet的PSNR最高,而SRGAN的看着更真實。
