零填充(Zero-padding):有時,在輸入矩陣的邊緣使用零值進行填充,這樣我們就可以對輸入圖像矩陣的邊緣進行濾波。零填充的一大好處是可以讓我們控制特征圖的大小。使用零填充的也叫做泛卷積,不適用零填充的叫做嚴格卷積。這個概念在下面的參考文獻Understanding Convolutional Neural Networks for NLP中介紹的非常詳細。
一直以為所謂的全0填充就只是在外側多加一行和一列0
直到今天,我看到這段話
# 聲明第一層卷積層的變量並實現前向傳播過程。這個過程通過使用不同命名空間來隔離不 # 同層的變量,這可以讓每一層中的變量命名只需要考慮在當前層的作用,而不需要擔心重 # 名的問題。和標准LeNet-5模型不大一樣,這里定義的卷積層輸入為28×28×1的原始MNIST # 圖片像素。因為卷積層中使用了全0填充,所以輸出為28×28×32的矩陣
我怎么也想不通,28×28×1,經過5×5的卷積計算之后,輸出怎么還是28。
…仔細翻了翻書本…
當padding='SAME’時
輸出層矩陣的長度,等於,輸入層矩陣長度除以長度方向上的步長,也就是說28/1向上取整=28…
當padding='VALID’時
全0填充的含義,不是在右(下)多加一行(列)0。
具體加多少0要根據實際情況決定!