參考了:
https://www.cnblogs.com/52machinelearning/p/5821591.html
https://blog.csdn.net/qq_24695385/article/details/80368618
LeNet
參考:https://www.jianshu.com/p/ce609f9b5910
AlexNet
參考:https://baike.baidu.com/item/AlexNet/22689612?fr=aladdin
GoogLeNet
2014年ImageNet冠軍
參考:https://www.cnblogs.com/shouhuxianjian/p/7786760.html
https://www.cnblogs.com/Allen-rg/p/5833919.html
其中,Inception原理如下圖所示:一個Inspection層可以達到多個CNN層的效果。這有點像ResNet的一個單元。
- 可用於提升網絡非線性表達能力
- 削弱梯度消失的影響
- 減小參數的數量(削弱過擬合)。GoogleNet只使用500萬個參數,是AlexNet的1/12,它使用了6000萬個參數。VGGNet使用了比AlexNet3倍多的參數。
- 據說可以減少運算量。
VGG
2014年ImageNet亞軍
參考:https://baike.baidu.com/item/VGG%20模型/22689655?fr=aladdin
ResNet
https://www.cnblogs.com/alanma/p/6877166.html
主要解決深層網絡梯度消失問題。