Wide Resnet


參考
論文地址
https://blog.csdn.net/wspba/article/details/72229177
https://blog.csdn.net/bea_tree/article/details/51865100?depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromBaidu-5&utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFro
為了提高模型的表現,深度網絡可以擴展到上千層,但是每個百分點的提升使得深度加倍,導致模型異常龐大,難以訓練。論文在Resnet網絡的基礎上提出了wide residual networks,減小網絡的深度,增大網絡的寬度(即通道數)。實驗表明,WRN的效果優於Resnet。Resnet確實可以使得深層網絡訓練變得可行,但也帶來了一個問題:許多殘差塊並未學習到有效的信息,只是identical mapping。

Wide residual network

不同網絡模塊

  • basic: resnet網絡結構-1
  • bottleneck: resnet網絡結構-2
  • basic-wide: 在resnet網絡結構-1上增加寬度(論文采用的結構B(3,3))
  • wide-dropout: 在resnet網絡結構-2上增加寬度(WRN會帶來更多的參數,所以需要dropout正則化)
    WRN網絡結構
    WRN-n-k表明網絡共n層,寬度系數為k


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM