感受野定義了feature map上的一個點來自於原圖的范圍。
規則1: stride的計算,某一層的stride等於之前所有層的stride的連乘積。
規則2: 某一層感受野的計算,某一層的感受野指的是這一層的輸出feature map上的一個點來自於原圖的范圍。某一層的感受野等於(前一層的感受野+(kernel_size-1)*前一層的stride)。
For instance:2X2的maxpool的kernel size 為2,stride也為2,所以pooling層輸出的感受野等於(前一層的感受野 + 1*前一層的stride)
轉載自:https://blog.csdn.net/qq_23150675/article/details/79452644
原文地址:https://www.jianshu.com/p/2b968e7a1715
1.先舉個例子:
-
e.g.兩層 3*3 卷積操作的有效區域(感受野)是5*5 (所有filter的stride=1,pad=0),示意圖如下:
-
三層3*3卷積核操作的有效區域是7*7 (所有filter的stride=1,pad=0),示意圖如下:
2. 基本定義:
- 定義:感受野用來表示網絡內部的不同神經元對原圖像的感受范圍的大小,或者說,convNets(cnn)每一層輸出的特征圖(feature map)上的像素點在原始圖像上映射的區域大小。
- 神經元之所以無法對原始圖像的所有信息進行感知,是因為在這些網絡結構中普遍使用卷積層和pooling層,在層與層之間均為局部連接。
- 神經元感受野的值越大表示其能接觸到的原始圖像范圍就越大,也意味着它可能蘊含更為全局,語義層次更高的特征;相反,值越小則表示其所包含的特征越趨向局部和細節。因此感受野的值可以用來大致判斷每一層的抽象層次。
3. 感受野的計算
-
感受野的計算
可以看到在Conv1中的每一個單元所能看到的原始圖像范圍是3*3,而由於Conv2的每個單元都是由 2*2范圍的Conv1構成,因此回溯到原始圖像,其實是能夠看到5*5的原始圖像范圍的。因此我們說Conv1的感受野是3,Conv2的感受野是5. 輸入圖像的每個單元的感受野被定義為1,這應該很好理解,因為每個像素只能看到自己。

在上圖中,數字代表某單元能夠看到的原始圖像像素,我們用r_n表示第n個卷積層中,每個單元的感受野,用k_n和s_n表示第n個卷積層的kernel_size和stride.
對Raw Image進行kernel_size=3, stride 2的卷積操作所得到的fmap1 (fmap為feature map的簡稱,為每一個conv層所產生的輸出)的結果是顯而易見的。序列[1 2 3]表示fmap1的第一個單元能看見原圖像中的1,2,3這三個像素,而第二個單元則能看見3,4,5。這兩個單元隨后又被kernel_size=2,stride 1的Filter 2進行卷積,因而得到的fmap2的第一個單元能夠看見原圖像中的1,2,3,4,5共5個像素(即取[1 2 3]和[3 4 5]的並集)。接下來我們嘗試一下如何用公式來表述上述過程。可以看到,[1 2 3]和[3 4 5]之間因為Filter 1的stride 2而錯開(偏移)了兩位,而3是重疊的。對於卷積兩個感受野為3的上層單元,下一層最大能獲得的感受野為 3*2=6,但因為有重疊,因此要減去(kernel_size - 1)個重疊部分,而重疊部分的計算方式則為感受野減去前面所說的偏移量,這里是2. 因此我們就得到

繼續往下一層看,我們會發現[1 2 3 4 5]和[3 4 5 6 7]的偏移量仍為2,並不簡單地等於上一層的s_2, 這是因為之前的stride對后續層的影響是永久性的,而且是累積相乘的關系(例如,在fmap3中,偏移量已經累積到4了),也就是說 r_3應該這樣求

同理:

。。。。。。可抽象如下:

理解:第n個卷積層的感受野等於前一個卷積層的感受野輸出再乘以第n卷積層的kernel_size,即第n卷積層要合並多少個,這里算出的是總的量,還要減去之間有重復的量,第n卷積層總共要合並k_n個,那么前后兩兩相比較,空隙共有k_n-1個,比如說:第一層和第二層有重復,第二層和第三層也有重復等等,然后就要計算每兩個之間重復的量有多少,首先每層共有r_n-1個數字,需要減去往右偏移的量,即stride,第1卷積層的stride_1,第二層會在第一層的基礎上偏移stride_2,即總共偏移了 stride_1*stride_2,即偏移量是一個乘積的累計效果,所以式子如下:

經過去括號簡化。可得下面式子:

以上
作者:默寫年華Antifragile
鏈接:https://www.jianshu.com/p/2b968e7a1715
來源:簡書
簡書著作權歸作者所有,任何形式的轉載都請聯系作者獲得授權並注明出處。