VGGnet 的原理及實現


VGGNet由牛津大學的視覺幾何組(Visual Geometry Group)和Google DeepMind公司的研究員共同提出,是ILSVRC-2014中定位任務第一名和分類任務第二名。其突出貢獻在於證明使用很小的卷積(3*3),增加網絡深度可以有效提升模型的效果,而且VGGNet對其他數據集具有很好的泛化能力。到目前為止,VGGNet依然經常被用來提取圖像特征。

VGGNet探索了CNN的深度及其性能之間的關系,通過反復堆疊3*3的小型卷積核和2*2的最大池化層,VGGNet成功的構築了16-19層深的CNN。

一、VGGNet結構

    VGGNet有A-E七種結構,從A-E網絡逐步變深,但是參數量並沒有增長很多(圖6-7),原因為:參數量主要消耗在最后3個全連接層,而前面的卷積層雖然層數多,但消耗的參數量不大。不過,卷積層的訓練比較耗時,因為其計算量大。

    其中,D和E是常說的VGGNet-16和VGGNet-19。C很有意思,相比於B多了幾個1*1的卷積層,1*1卷積的意義在於線性變換,而輸入的通道數和輸出的通道數不變,沒有發生降維。

 

 

 

VGGNet網絡特點:

1. VGGNet擁有5段卷積,每段卷積內有2-3個卷積層,同時每段尾部都會連接一個最大池化層(用來縮小圖片)。

2. 每段內的卷積核數量一樣,越后邊的段內卷積核數量越多,依次為:64-128-256-512-512

3. 越深的網絡效果越好。(圖6-9)

4. LRN層作用不大(作者結論)

5. 1*1的卷積也是很有效的,但是沒有3*3的卷積好,大一些的卷積核可以學習更大的空間特征。

 

為什么一個段內有多個3*3的卷積層堆疊?

這是個非常有用的設計。2個3*3的卷積層串聯相當於1個5*5的卷積層,即一個像素會跟周圍5*5的像素產生關聯,可以說感受野大小為5*5。而3個3*3的卷積層相當於1個7*7的卷積層。並且,兩個3*3的卷積層的參數比1個5*5的更少,前者為2*3*3=18,后者為1*5*5=25。

更重要的是,2個3*3的卷積層比1個5*5的卷積層有更多的非線性變換(前者可使用2次ReLu函數,后者只有兩次),這使得CNN對特征的學習能力更強。

所以3*3的卷積層堆疊的優點為:

(1)參數量更小

(2)小的卷積層比大的有更多的非線性變換,使得CNN對特征的學習能力更強。

 

https://blog.csdn.net/u012679707/article/details/80807406

 https://www.cnblogs.com/1a2a/p/9860479.html


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM