參考
論文地址
https://blog.csdn.net/wspba/article/details/72229177
https://blog.csdn.net/bea_tree/article/details/51865100?depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromBaidu-5&utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFro
為了提高模型的表現,深度網絡可以擴展到上千層,但是每個百分點的提升使得深度加倍,導致模型異常龐大,難以訓練。論文在Resnet網絡的基礎上提出了wide residual networks,減小網絡的深度,增大網絡的寬度(即通道數)。實驗表明,WRN的效果優於Resnet。Resnet確實可以使得深層網絡訓練變得可行,但也帶來了一個問題:許多殘差塊並未學習到有效的信息,只是identical mapping。
Wide residual network
- basic: resnet網絡結構-1
- bottleneck: resnet網絡結構-2
- basic-wide: 在resnet網絡結構-1上增加寬度(論文采用的結構B(3,3))
- wide-dropout: 在resnet網絡結構-2上增加寬度(WRN會帶來更多的參數,所以需要dropout正則化)
WRN-n-k表明網絡共n層,寬度系數為k