CVPR 2021 論文大盤點-去霧去模糊篇


https://mp.weixin.qq.com/s/9HqbEI0y4gNrwBUp5p8U3A

 

本文繼續總結CVPR 2021 底層圖像處理相關論文,包含圖像/視頻去模糊和圖像/視頻去霧。共計 14 篇。

 

大家可以在:

https://openaccess.thecvf.com/CVPR2021?day=all

按照題目下載這些論文。

 

如果想要下載所有CVPR 2021論文,請點擊這里:

CVPR 2021 論文開放下載了!

 

圖像去模糊

 

DeFMO: Deblurring and Shape Recovery of Fast Moving Objects


對圖像中快速運動物體導致的去模糊和形狀恢復

作者 | Denys Rozumnyi, Martin R. Oswald, Vittorio Ferrari, Jiri Matas, Marc Pollefeys單位 | 蘇黎世聯邦理工學院;Microsoft Mixed Reality and AI Zurich Lab;谷歌;捷克理工大學論文 | https://arxiv.org/abs/2012.00595代碼 | https://github.com/rozumden/DeFMO
圖片

Explore Image Deblurring via Encoded Blur Kernel Space


文中提出一種方法來編碼任意的 sharp-blur 圖像對數據集的模糊核空間,並利用這種編碼空間來解決一些特定的任務,如圖像去模糊和模糊合成。對於圖像去模糊化,已證明所提出方法可以處理未見過的模糊操作。對於模糊合成,該方法可以將模糊從給定的 sharp-blur 圖像對數據集中遷移到任何感興趣的領域,包括面部、灰度和動畫圖像的領域。
作者 | Phong Tran, Anh Tran, Quynh Phung, Minh Hoai單位 | VinAI Research;VinUniversity;石溪大學論文 | https://arxiv.org/abs/2104.00317代碼 | https://github.com/VinAIResearch/blur-kernel-space-exploring
圖片

Towards Rolling Shutter Correction and Deblurring in Dynamic Scenes


BS-RSCD,是首個使用分光鏡采集系統在真實動態場景中進行聯合RSCD(滾動快門校正與去模糊)問題的數據集。提出一個新的神經網絡架構,可以同時處理 RS 失真和模糊,使用可變形注意力模塊來融合來自 bidirectional warping 和去模糊流的特征。實驗結果表明,在 RSC 和 RSCD 任務中,所提出的方法優於最先進的方法。
作者 | Zhihang Zhong, Yinqiang Zheng, Imari Sato單位 | 東京大學;國立情報學研究所論文 | https://arxiv.org/abs/2104.01601代碼 | https://github.com/zzh-tech/RSCD
圖片
Learning a Non-blind Deblurring Network for Night Blurry Images
文中提出一個非盲去模糊網絡(NBDN)來恢復夜間模糊的圖像。為了緩和違反模糊模型的像素所帶來的副作用,開發一個 confidence estimation unit(置信度估計單元CEU)來估計一個地圖,確保這些像素在去卷積步驟中的貢獻較小,並通過共軛梯度(CG)方法進行優化。此外,與現有的在其框架中使用手動調整的超參數的方法不同。所提出的 hyper-parameter estimation unit(超參數估計單元HPEU)自適應估計超參數,可以更好地修復圖像。實驗結果表明,所提出的網絡在數量和質量上都比最先進的算法表現得好。
作者 | Liang Chen、Jiawei Zhang、Jinshan Pan、Songnan Lin、Faming Fang、Jimmy S. Ren單位 | 華東師范大學;商湯;南京理工大學;上海交通大學論文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Chen_Learning_a_Non-Blind_Deblurring_Network_for_Night_Blurry_Images_CVPR_2021_paper.pdf
圖片
Test-Time Fast Adaptation for Dynamic Scene Deblurring via Meta-Auxiliary Learning
文中提出一種自監督元輔助學習,通過整合外部和內部學習來提高去模糊的性能。具體來說,建立一個自監督的輔助重建任務,與主要的去模糊任務共享一部分網絡。這兩個任務是在一個外部數據集上聯合訓練的。
此外,提出一個元輔助訓練方案,以進一步優化作為基礎學習者的預訓練模型,這適用於測試時的快速適應。在訓練過程中,兩個任務的性能是耦合的。因此,能夠通過輔助任務在測試時利用內部信息來提高去模糊的性能。
跨評估數據集的廣泛實驗結果證明了所提方法的測試時間適應性的有效性。
作者 | Zhixiang Chi、Yang Wang、Yuanhao Yu、Jin Tang單位 | 諾亞方舟實驗室;曼尼托巴大學論文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Chi_Test-Time_Fast_Adaptation_for_Dynamic_Scene_Deblurring_via_Meta-Auxiliary_Learning_CVPR_2021_paper.pdf
圖片
Blind Deblurring for Saturated Images
文中開發一種新的方法來恢復飽和模糊的圖像。首先提出一個新的模糊模型,將飽和和不飽和的像素都考慮在內。與以前的方法不同,飽和區域周圍的強邊緣仍然可以對去模糊過程作出貢獻,緩解了現有方法在模糊圖像中存在大面積飽和區域時的局限性。然后,基於所提出的模糊模型,開發一個高效的基於MAP 的優化框架。並證明它能很好地收斂,並且比其他方法需要更少的執行時間。
實驗結果表明,所提出的方法不需要額外的預處理步驟(即提取光條紋或選擇顯著邊緣),就能在具有挑戰性的真實案例中獲得高質量的結果。
作者 | Liang Chen、Jiawei Zhang、Songnan Lin、Faming Fang、 Jimmy S. Ren單位 | 華東師范大學;商湯;上海交通大學論文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Chen_Blind_Deblurring_for_Saturated_Images_CVPR_2021_paper.pdf
圖片
Learning Spatially-Variant MAP Models for Non-blind Image Deblurring
文中提出一種在 MAP 框架內聯合學習 spatially-variant data 和正則化項的方法,用於非盲圖像去模糊。並表明聯合學習比單獨學習一項更有效,特別是在具有挑戰性的情況下,效果更加明顯。
作者 | Jiangxin Dong、Stefan Roth、Bernt Schiele單位 | 薩爾大學;TU Darmstadt & hessian.AI論文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Dong_Learning_Spatially-Variant_MAP_Models_for_Non-Blind_Image_Deblurring_CVPR_2021_paper.pdf
圖片

視頻去模糊

 

ARVo: Learning All-Range Volumetric Correspondence for Video Deblurring


通過學習視頻中臨近幀模糊區域的對應來進行去模糊

作者 | Dongxu Li, Chenchen Xu, Kaihao Zhang, Xin Yu, Yiran Zhong, Wenqi Ren, Hanna Suominen, Hongdong Li單位 | 澳大利亞國立大學;DATA61-CSIRO;悉尼科技大學;IIE-CAS;圖爾庫大學論文 | https://arxiv.org/abs/2103.04260備注 | CVPR 2021 Poster
圖片
Gated Spatio-Temporal Attention-Guided Video Deblurring
文中介紹一個將 factorized spatio-temporal attention 作為一個有效的非局部信息融合工具,用於視頻去模糊任務。並表示是首次提出尋找與視頻去模糊最相關信息的關鍵幀的方法。當與所提出的注意力模塊結合使用時,它能顯著提高修復性能。在幾個視頻去模糊化的基准上進行了廣泛的實驗和分析,證明了該架構所達到的最先進的准確性和可解釋性。
作者 | Maitreya Suin 、A. N. Rajagopalan單位 | 印度理工學院論文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Suin_Gated_Spatio-Temporal_Attention-Guided_Video_Deblurring_CVPR_2021_paper.pdf
圖片

圖像去霧


Ultra-High-Definition Image Dehazing via Multi-Guided Bilateral Learning

文中提出一種通過多引導雙邊學習的超高清圖像去霧化方法。方法的關鍵是使用深度 CNN 來建立一個仿射雙邊網格,可以較好保持圖像中詳細的邊緣和紋理。同時,建立多個 guidance matrices,以協助仿射雙邊網格恢復高質量的特征,為圖像去霧提供豐富的顏色和紋理信息。
定量和定性結果表明,所提出的網絡在准確性和推理速度(125 fps)方面與最先進的去霧方法相比表現良好,並能在真實世界的 4K 霧霾圖像上產生視覺上令人驚喜的結果。
作者 | Zhuoran Zheng、Wenqi Ren、Xiaochun Cao、Xiaobin Hu、Tao Wang、Fenglong Song、Xiuyi Jia單位 | 南京理工大學;SKLOIS;諾亞方舟實驗室論文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Zheng_Ultra-High-Definition_Image_Dehazing_via_Multi-Guided_Bilateral_Learning_CVPR_2021_paper.pdf
圖片

Contrastive Learning for Compact Single Image Dehazing

 

基於對比學習的緊湊圖像去霧方法

 

本文提出了一種基於對比學習的新穎對比正則化(CR)技術,以利用模糊圖像和清晰圖像的信息分別作為負樣本和正樣本。CR確保在表示空間中將還原后的圖像拉到更接近清晰圖像,並推到遠離朦朧圖像的位置。

 

此外,考慮到性能和內存存儲之間的權衡,開發了一個基於類自動編碼器(AE)框架的緊湊型除霧網絡,可分別受益於自適應地保存信息流和擴展接收域以提高網絡的轉換能力。將具有自動編碼器和對比正則化功能的除霧網絡稱為AECR-Net,在合成和真實數據集上進行的廣泛實驗表明,AECR-Net超越了最新技術。

 

作者 | Haiyan Wu, Yanyun Qu, Shaohui Lin, Jian Zhou, Ruizhi Qiao, Zhizhong Zhang, Yuan Xie, Lizhuang Ma單位 | 華東師范大學;廈門大學;騰訊優圖論文 | https://arxiv.org/abs/2104.09367代碼 | https://github.com/GlassyWu/AECR-Net簡介 | 5
圖片
PSD: Principled Synthetic-to-Real Dehazing Guided by Physical Priors
Principled Synthetic-to-real Dehazing(PSD)框架,有效且易於使用。從一個在合成數據上預訓練的骨干網開始,使用未標記的真實霧霾圖像,以無監督的方式對網絡進行微調。微調過程由一個先驗損失“委員會”指導,該“委員會”由幾個流行的、有根據的物理先驗組成。
廣泛的實驗表明,PSD 在真實世界的去霧方法中的表現優於最先進的去霧方法。
作者 | Zeyuan Chen、Yangchao Wang、Yang Yang、Dong Liu1單位 | 中國科學技術大學;電子科技大學論文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Chen_PSD_Principled_Synthetic-to-Real_Dehazing_Guided_by_Physical_Priors_CVPR_2021_paper.pdf代碼 | https://github.com/zychen-ustc/PSD-Principled-Synthetic-to-Real-Dehazing-Guided-by-Physical-Priors備注 | CVPR 2021 Oral
圖片

視頻去霧


Learning to Restore Hazy Video: A New Real-World Dataset and A New Method
本次工作中,收集了一個真實世界的視頻去霧數據集,其中包含一對真實的有霧和相應的無霧視頻。是首個用於監督學習的真實世界視頻去霧數據集。並進行了大量的主觀和客觀的實驗,證明了該數據集中收集的有霧場景比合成數據集的場景更真實,為訓練和評估真實世界的視頻去霧算法提供了寶貴的基准。即所提出的 Confidence Guided and Improved Deformable Network(CG-IDN)用於視頻去霧,並在現實世界的視頻去霧任務中驗證了其有效性。
作者 | Xinyi Zhang、Hang Dong、Jinshan Pan、Chao Zhu、Ying Tai、 Chengjie Wang、Jilin Li、Feiyue Huang、Fei Wang單位 | 騰訊優圖;字節跳動;西安交通大學;南京理工大學論文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Zhang_Learning_To_Restore_Hazy_Video_A_New_Real-World_Dataset_and_CVPR_2021_paper.pdf簡介 | 9
圖片

 

Image Defocus Deblurring


Iterative Filter Adaptive Network for Single Image Defocus Deblurring
文中提出一種新型的基於學習的端到端單幅圖像去失焦模糊方法。它配備一個新型的Iterative Filter Adaptive Network(IFAN),專門用於處理空間變化和大的失焦模糊。為了自適應地處理空間變化的模糊,IFAN 預測像素級的去模糊濾波器,這些濾波器被應用於輸入圖像的失焦特征,以產生去模糊的特征。為了有效地管理大面積的模糊,IFAN 將去模糊濾波器建模為小尺寸可分離濾波器的堆疊。還提出一個基於失焦差異估計和 reblurring 的訓練方案,可以大大提升去模糊的質量。
通過實驗證明了所提出方法在真實世界圖像上達到了最先進的性能。
作者 | Junyong Lee 、Hyeongseok Son 、Jaesung Rim 、Sunghyun Cho、 Seungyong Lee單位 | 浦項科技大學論文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Lee_Iterative_Filter_Adaptive_Network_for_Single_Image_Defocus_Deblurring_CVPR_2021_paper.pdf代碼 | https://github.com/codeslake/IFAN
圖片


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM