深度神經網絡Google Inception Net-V3結構圖
前言
Google Inception Net在2014年的 ImageNet Large Scale Visual Recognition Competition (ILSVRC)中取得第一名,該網絡以結構上的創新取勝,通過采用全局平均池化層取代全連接層,極大的降低了參數量,是非常實用的模型,一般稱該網絡模型為Inception V1。隨后的Inception V2中,引入了Batch Normalization方法,加快了訓練的收斂速度。在Inception V3模型中,通過將二維卷積層拆分成兩個一維卷積層,不僅降低了參數數量,同時減輕了過擬合現象。
一、多少層?
Inception V3究竟有多少層呢?某書籍上說42層,某書籍上說46層。參考實現的源代碼,仔細數一數,應該是47層。

層次結構圖.png
5(前面)+
3(block1_module1)+3(block1_module2)+3(block1_module3)+
3(block2_module1)+5(block2_module2)+5(block2_module3)+5(block2_module4)+5(block2_module5)+
4(block3_module1)+3(block3_module2)+3(block3_module3)
= 47層
Tips:上面的這張層次結構圖出現在某些帖子和書籍中,根據實現的源碼,標注的紅色方框處應該是5個卷積層,而不是4個。
二、詳細網絡結構
詳細的網絡結構及其子網絡結構如下。

總體結構圖 .png

block1_module1.png

block1_module2.png

block1_module3.png

block2_module1.png

block2_module2.png

block2_module3,4.png

block2_module5.png

block3_module1.png

block3_module2.png

block3_module3.png
這么復雜精巧的網絡結構是怎么設計出來的呢?是不斷的進行數值實驗嗎?
還是靠愛... ...
