paper 地址:http://personal.ie.cuhk.edu.hk/~ccloy/files/eccv_2014_deepresolution.pdf
圖像超分辨率重建
把一張 低分辨率圖像(low resolution) 通過一定的算法 轉換成 高分辨率圖像(high resolution);
在 深度學習 之前,有很多 傳統方法 可以解決該問題,如 插值,但是效果一般;
SRCNN 是第一個 把 深度卷機網絡 用於該任務的 深度學習模型,故被稱為 圖像超分辨率重建的 鼻祖;
可喜的的是 作者 有我們的國人 何凱明大神;
SRCNN 網絡結構
作者認為,既然能夠通過一定的算法提高圖像分辨率,那么 低分辨 與高分辨 之間 一定有 “共通的特性”;
就是這么簡單的假設,作者設計了 SRCNN;這里我想說的是,模型到底是什么不重要,重要的是 作者為什么 能設計這樣的模型;
該模型的網絡結構非常簡單,只有 3 層卷積,如下圖
第一層:對 低分辨率圖像進行 特征提取,原文 9 x 9 x 64卷積核
第二層:對特征進行非線性映射,原文 1 x 1 x 32卷積核
第三層:對 映射后的特征進行重建,生成高分辨率圖像,原文 5 x 5 x 1卷積核
// 生成 單通道圖像,故c=1,與 輸入保持一致
訓練與測試
訓練過程:在 高分辨率圖像 上隨機截取 patch,先進行降采樣(目的是降低分辨率),再進行升采樣(模型需要,輸入尺寸固定),以此作為模型輸入,label 是 截取的 patch,loss 為 逐像素 mes;
測試過程:先通過 插值等方式 降低分辨率,然后喂給模型
總結
既然是 鼻祖,肯定不完美,有很多改進版,以后再說
參考資料: