假設一個卷積層的輸入的特征圖(feature maps)數量(input channels)為“n”,輸出為特征圖數量為“m”,卷積核(kernel size)為“k”。假設我們處理的是一個2D的卷積操作,卷積層對應的輸入的參數量為k * k * n,與此同時,由於輸出為m通道的特征圖數量,為了映射到輸出卷積層需要學習(k * k * n)* m個參數,但是這里不能忽略掉偏差項(由z = wx + b得知),由於一般卷積操作是矩陣運算,因此b是具有broadcasting的特性的,那么最終需要計算的當前卷積層的參數兩為(k * k * n + b)* m。
