論文:Contrastive Learning for Compact Single Image Dehazing, CVPR 2021
代碼:https://github.com/GlassyWu/AECR-Net
1、背景
當前方法的問題:1)使用clear images結合L1/L2重建損失進行訓練,容易引起結果偏色;2)側重於加大網絡的深度和寬度,導致計算開銷巨大。
為了解決當前問題,作者提出了一種新的 contrastive loss。有霧圖像,網絡生成的圖像,清晰圖像分別做為 negative, anchor, 和 positive 樣本,保證生成的圖像在表示空間中離清晰圖像更近,離有霧圖像更遠。同時,為了在性能和參數量間取得平衡,作者提出了一個 compact network by adopting autoencoder-like framework。

該方法框架如圖所示,由 autoencoder-like dehazing network 和 contrastive regularization 組成。
2、Autoencoder-like dehazing network
網絡首先是一個步長為1的卷積和兩個步長為2的卷積(圖中淺藍色的塊),然后,采用6個FA塊處理(是在FFANet中提出的)。該模型只采用了6個FA塊,但原來的FFANet采用了57個,顯著減少了計算量。同時,為了促進不同層、不同尺度間特征的流動,作者提出了兩種連接模式:
(1)Adaptive mixup: 用來動態融合下采樣層和上采樣層之間的特征。Low-level features (邊緣和角點)在CNN的低層捕獲,但是,隨着網絡層數的加深,淺層特征會退化。為了解決這一問題,本文采用adaptive mixup operation來融合下采樣層和上采樣層間的特征,如下圖所示。

該操作可以表示為:

其中,權重是自適應可學習的參數。
(2)Dynamic feature enchancement: 傳統方法經常采用固定大小3X3的卷積核(如下圖中間藍框圖片所示),感受野有限,同時難以捕獲結構信息。如果使用 deformable conv (如下圖右邊紅框圖片所示),就可以獲得更多的結構信息。因此,作者引入了dynamic feature enhancement模塊,由兩個可變形卷積層組成。實驗中發現,深層部署的效果比淺層部署效果要好。

3、Contrastive regularization
對比學習的目標是在度量空間上拉近正樣本對間的距離,拉遠負樣本對間的距離。因此,作者提出了新的 contrastive regularization 來修復圖像。正樣本對是正樣本對是清晰圖像\(J\)和經網絡修復的圖像\(\phi(I, w)\),負樣本對是經網絡修復的圖像\(\phi(I, w)\)和有霧圖像\(I\)。具體來說,網絡的目標函數是:

在具體實現上,作者使用了VGG19的感知損失。實驗部分可以參考作者論文,這里不再多說。
