經典深度學習CNN總結 - LeNet、AlexNet、GoogLeNet、VGG、ResNet


參考了:

https://www.cnblogs.com/52machinelearning/p/5821591.html

https://blog.csdn.net/qq_24695385/article/details/80368618

 

LeNet

參考:https://www.jianshu.com/p/ce609f9b5910

 

 

AlexNet

參考:https://baike.baidu.com/item/AlexNet/22689612?fr=aladdin

 

GoogLeNet

2014年ImageNet冠軍

參考:https://www.cnblogs.com/shouhuxianjian/p/7786760.html

https://www.cnblogs.com/Allen-rg/p/5833919.html

其中,Inception原理如下圖所示:一個Inspection層可以達到多個CNN層的效果。這有點像ResNet的一個單元。

  • 可用於提升網絡非線性表達能力
  • 削弱梯度消失的影響
  • 減小參數的數量(削弱過擬合)。GoogleNet只使用500萬個參數,是AlexNet的1/12,它使用了6000萬個參數。VGGNet使用了比AlexNet3倍多的參數。
  • 據說可以減少運算量。

 

VGG

2014年ImageNet亞軍

 參考:https://baike.baidu.com/item/VGG%20模型/22689655?fr=aladdin

ResNet

https://www.cnblogs.com/alanma/p/6877166.html

主要解決深層網絡梯度消失問題。

 

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM