1、卷基層(Convolution)
關於卷積層我們先來看什么叫卷積操作: 下圖較大網格表示一幅圖片,有顏色填充的網格表示一個卷積核,卷積核的大小為3*3。假設我們做步長為1的卷積操作,表示卷積核每次向右移動一個像素(當移動到邊界時回到最左端並向下移動一個單位)。卷積核每個單元內有權重,下圖的卷積核內有9個權重。在卷積核移動的過程中將圖片上的像素和卷積核的對應權重相乘,最后將所有乘積相加得到
一個輸出。下圖經過卷積后形成一個6*4的圖。

在了解了卷積操作后我們來看下卷積層的特點。
局部感知
在傳統神經網絡中每個神經元都要與圖片上每個像素相連接,這樣的話就會造成權重的數量巨大造成網絡難以訓練。而在含有卷積層的的神經網絡中每個神經元的權重個數都時卷積核的大小,這樣就相當於沒有神經元只與對應圖片部分的像素相連接。這樣就極大的減少了權重的數量。同時我們可以設置卷積操作的步長,假設將上圖卷積操作的步長設置為3時每次卷積都不會有重疊區域(在超出邊界的部分補自定義的值)。局部感知的直觀感受如下圖:
ps:使用局部感知的原因是一般人們認為圖片中距離相近的部分相關性較大,而距離比較遠的部分相關性較小。在卷積操作中步長的設置就對應着距離的遠近。但是步長的設置並無定值需要使用者嘗試。
參數共享
在介紹參數共享前我們應該知道卷積核的權重是經過學習得到的,並且在卷積過程中卷積核的權重是不會改變的,這就是參數共享的思想。這說明我們通過一個卷積核的操作提取了原圖的不同位置的同樣特征。簡單來說就是在一幅圖片中的不同位置的相同目標,它們的特征是基本相同的。其過程如下圖:
多核卷積
如權值共享的部分所說我們用一個卷積核操作只能得到一部分特征可能獲取不到全部特征,這么一來我們就引入了多核卷積。用每個卷積核來學習不同的特征(每個卷積核學習到不同的權重)來提取原圖特征。
上圖的圖片經過三個卷積核的卷積操作得到三個特征圖。需要注意的是,在多核卷積的過程中每個卷積核的大小應該是相同的。
2、下采樣層(Down—pooling)
下采樣層也叫池化層,其具體操作與卷基層的操作基本相同,只不過下采樣的卷積核為只取對應位置的最大值、平均值等(最大池化、平均池化),並且不經過反向傳播的修改。
個人理解之所以要加下采樣的原因是可以忽略目標的傾斜、旋轉之類的相對位置的變化。以此提高精度,同時降低了特征圖的維度並且已定成度上可以避免過擬合。