零填充(Zero-padding)


零填充(Zero-padding):有時,在輸入矩陣的邊緣使用零值進行填充,這樣我們就可以對輸入圖像矩陣的邊緣進行濾波。零填充的一大好處是可以讓我們控制特征圖的大小。使用零填充的也叫做泛卷積,不適用零填充的叫做嚴格卷積。這個概念在下面的參考文獻Understanding Convolutional Neural Networks for NLP中介紹的非常詳細。

一直以為所謂的全0填充就只是在外側多加一行和一列0
直到今天,我看到這段話

# 聲明第一層卷積層的變量並實現前向傳播過程。這個過程通過使用不同命名空間來隔離不
# 同層的變量,這可以讓每一層中的變量命名只需要考慮在當前層的作用,而不需要擔心重
# 名的問題。和標准LeNet-5模型不大一樣,這里定義的卷積層輸入為28×28×1的原始MNIST
# 圖片像素。因為卷積層中使用了全0填充,所以輸出為28×28×32的矩陣

我怎么也想不通,28×28×1,經過5×5的卷積計算之后,輸出怎么還是28。
…仔細翻了翻書本…
當padding='SAME’時

輸出層矩陣的長度,等於,輸入層矩陣長度除以長度方向上的步長,也就是說28/1向上取整=28…

當padding='VALID’時

全0填充的含義,不是在右(下)多加一行(列)0。
具體加多少0要根據實際情況決定!


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM