概述
- 反卷積神經網絡(Deconvolutional Network)

- 反池化:
- 反激活:
- 反卷積:
卷積網絡就是網絡利用學習到的卷積核對上一層的特征進行卷積得到本層的feature map。而反卷積就是這個過程的逆過程,用本層的feature map與轉置后的卷積核進行卷積,得到上一層的特征。
2. 可視化結果
- 特征層學到了什么?
從上圖可是化的結果中,我們可以看出,不同層的layer學習到的是不同的特征。對於Layer1和Layer2來說,網絡學習到的基本上是邊緣、顏色等圖像中底層的特征;Layer3開始可以學習到一些復雜些的特征,類似網格紋理等;Layer4可以學習到更高維的特征,比如說狗頭、鳥類的腳、同心環等;Layer5則是更加具有辨別性的關鍵特征。
- 特征層是如何隨訓練演化的?
上圖展示了網絡中各個特征層是如何隨着訓練步數而進化的。各子圖中每列分別代表訓練了[1,2,5,10,20,30,40,64]個epoch。可以看出,對於較低的特征層來說,它們的特征很快就學到並穩定下來了。而對於像Layer5這樣比較高維的特征層來說,則是在學習了30個epoch后才學習到了比較有辨別性的關鍵特征。說明訓練步數的增加還是能夠比較好地提升網絡的學習和收斂能力的。
- 可視化網絡如何提升網絡性能?
作者可視化了原版AlexNet各特征層,發現了對於AlexNet來說,第一層的卷積核大部分是高頻和低頻的特征,而對中頻段圖像特征整提取得不好。同時,第二層特征的可視化的結果顯示出了由於第一層卷積步長太大(4)導致的“ 混疊偽影”。因此作者對AlexNet的改善包括:將第一層的卷積核從11x11減小為7x7;將卷積步長減小為2,而不是4。經過作者改善后的模型在ImageNet2012的分類誤差均比AlexNet有提高。
- 消融分析(Ablation Analysis)
作者用消融分析對三張圖進行了分析,發現當遮擋掉圖片中的關鍵部位后,相關卷積核卷出來的特征激勵會大幅變小(上圖第二列)。同時發現遮擋掉關鍵部位后,網絡很容易將圖片放入錯誤的分類中去,而遮擋一些背景部位則不會(第五列)。
這篇文章是CNN網絡可視化相關研究非常重要的一篇文章,在這之后的許多研究工作都基於了這篇文章的成果。所以說是研究CNN 網絡可視化的必讀文獻也不為過。
參考資料:
1. http://blog.csdn.net/hjimce/article/details/50544370
2. Zeiler, M. D. and Fergus, R. Visualizing and understanding convolutional networks. In ECCV, 2014.