全連接層的輸入是固定大小的,如果輸入向量的維數不固定,那么全連接的權值參數的量也是不固定的,就會造成網絡的動態變化,無法實現參數訓練目的。
全連接層的計算其實相當於輸入的特征圖數據矩陣和全連接層權值矩陣進行內積,在配置一個網絡時,全連接層的參數維度是固定的,所以兩個矩陣要能夠進行內積,則輸入的特征圖的數據矩陣維數也需要定。
大家都知道, ,全連接神經網絡結構一旦固定,需要學習的參數w是固定的,例如 輸入圖像是 28*28 = 784,w 的轉置= (500,784),===> 輸出矩陣的shape:(500,1),如果輸入圖像的大小改變,但是w的大小並不會改變,因此,無法計算。
而對於卷積神經網絡,卷積核的每個元素表示參數w,不論輸入圖像大小怎么改變,卷積核大小是不變的,並且通過卷積操作,每次都能訓練到卷積核中的元素,所以卷積神經網絡的輸入圖像的大小是任意的。
綜上,固定大小這個限制只是發生在了網絡的深層(高層)處。
當你用到包含全連接層的預訓練模型時,就需要固定固定輸入圖片的大小。