殘差神經網絡與inception-resnet


一、基本概念

Residual Connection:

  • 本質是“短路連接”
  • 如下圖陰影部分,通過增加shortcuts,加速訓練,從而可以訓練出更深的模型(I.R.v2 > Inception v3)。更深的模型意味着可以學出更多東西,帶來精度的提升。

 

I.R. v2結構,注意到圖中inception區塊被簡化了,比先前的Inception V3種要包含更少的並行塔(parallel towers)。

Inception模塊的特點,是通過這種並聯結構減少參數,使得泛化性更好、降低對樣本數量的要求。

實現

通過將並聯部分與“短路連接”的tensors相加(或加權相加),並經過一個‘relu’激活函數。

 x = layers.add([mix0, shortcut])
 x = layers.Activation('relu')(x)

 

二、論文

為了進一步推進這個領域的進步,今天Google團隊宣布發布Inception-ResNet-v2(一種卷積神經網絡——CNN),它在ILSVRC圖像分類基准測試中實現了當下最好的成績。Inception-ResNet-v2是早期Inception V3模型變化而來,從微軟的殘差網絡(ResNet)論文中得到了一些靈感。相關論文信息可以參看我們的論文Inception-v4, Inception-ResNet and the Impact of Residual Connections on LearningInception-v4, Inception-ResNet以及殘差連接在學習上的影響):

Google最新開源Inception-ResNet-v2,借助殘差網絡進一步提升圖像分類水准

殘差連接(Residual connections )允許模型中存在shortcuts,可以讓研究學者成功地訓練更深的神經網絡(能夠獲得更好的表現),這樣也能明顯地簡化Inception塊。

 

效果

如下方圖表所示,Inception-ResNet-v2架構的精確度比之前的最優模型更高,圖表中所示為基於單個圖像的ILSVRC 2012圖像分類標准得出的排行第一與排行第五的有效精確度。此外,該新模型僅僅要求兩倍於Inception v3的容量與計算能力。

Google最新開源Inception-ResNet-v2,借助殘差網絡進一步提升圖像分類水准

Inception-ResNet-v2具體代碼實現過程參見:

https://github.com/tensorflow/models/blob/master/slim/nets/inception_resnet_v2.py

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM