圖像超分辨率重建 - SRCNN


paper 地址:http://personal.ie.cuhk.edu.hk/~ccloy/files/eccv_2014_deepresolution.pdf 

 

圖像超分辨率重建

把一張 低分辨率圖像(low resolution) 通過一定的算法 轉換成 高分辨率圖像(high resolution);

在 深度學習 之前,有很多 傳統方法 可以解決該問題,如 插值,但是效果一般;

SRCNN 是第一個 把 深度卷機網絡 用於該任務的 深度學習模型,故被稱為 圖像超分辨率重建的 鼻祖;

可喜的的是 作者 有我們的國人 何凱明大神;

 

SRCNN 網絡結構

作者認為,既然能夠通過一定的算法提高圖像分辨率,那么 低分辨 與高分辨 之間 一定有 “共通的特性”;

就是這么簡單的假設,作者設計了 SRCNN;這里我想說的是,模型到底是什么不重要,重要的是 作者為什么 能設計這樣的模型;

 

該模型的網絡結構非常簡單,只有 3 層卷積,如下圖

第一層:對 低分辨率圖像進行 特征提取,原文 9 x 9 x 64卷積核

第二層:對特征進行非線性映射,原文 1 x 1 x 32卷積核

第三層:對 映射后的特征進行重建,生成高分辨率圖像,原文 5 x 5 x 1卷積核

  // 生成 單通道圖像,故c=1,與 輸入保持一致

 

訓練與測試

訓練過程:在 高分辨率圖像 上隨機截取 patch,先進行降采樣(目的是降低分辨率),再進行升采樣(模型需要,輸入尺寸固定),以此作為模型輸入,label 是 截取的 patch,loss 為 逐像素 mes;

測試過程:先通過 插值等方式 降低分辨率,然后喂給模型

 

總結

既然是 鼻祖,肯定不完美,有很多改進版,以后再說

 

 

 

參考資料:

https://zhuanlan.zhihu.com/p/49846783

https://zhuanlan.zhihu.com/p/27160373


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM