经典深度学习CNN总结 - LeNet、AlexNet、GoogLeNet、VGG、ResNet


参考了:

https://www.cnblogs.com/52machinelearning/p/5821591.html

https://blog.csdn.net/qq_24695385/article/details/80368618

 

LeNet

参考:https://www.jianshu.com/p/ce609f9b5910

 

 

AlexNet

参考:https://baike.baidu.com/item/AlexNet/22689612?fr=aladdin

 

GoogLeNet

2014年ImageNet冠军

参考:https://www.cnblogs.com/shouhuxianjian/p/7786760.html

https://www.cnblogs.com/Allen-rg/p/5833919.html

其中,Inception原理如下图所示:一个Inspection层可以达到多个CNN层的效果。这有点像ResNet的一个单元。

  • 可用于提升网络非线性表达能力
  • 削弱梯度消失的影响
  • 减小参数的数量(削弱过拟合)。GoogleNet只使用500万个参数,是AlexNet的1/12,它使用了6000万个参数。VGGNet使用了比AlexNet3倍多的参数。
  • 据说可以减少运算量。

 

VGG

2014年ImageNet亚军

 参考:https://baike.baidu.com/item/VGG%20模型/22689655?fr=aladdin

ResNet

https://www.cnblogs.com/alanma/p/6877166.html

主要解决深层网络梯度消失问题。

 

 


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM