Each layer in a convolutional network is connected only to two other layers
---------------------------------------------------------------------中文版-------------------------------------------------------------------------------------------
第一周測驗 - 卷積神經網絡的基本知識
1. 問題 1
你認為把下面這個過濾器應用到灰度圖像會怎么樣?
⎡⎣⎢⎢⎢01101331−1−3−3−10−1−10⎤⎦⎥⎥⎥[01−1013−3−113−3−101−10]
-
【 】 會檢測45度邊緣
-
【★】 會檢測垂直邊緣
-
【 】 會檢測水平邊緣
-
【 】 會檢測圖像對比度
Because the left part is positive, and the right part is negative.
因為因為左邊的部分是正的,右邊的部分是負的。(博主注:左邊亮,右邊暗)
2. 問題 2
假設你的輸入是一個300×300的彩色(RGB)圖像,而你沒有使用卷積神經網絡。 如果第一個隱藏層有100個神經元,每個神經元與輸入層進行全連接,那么這個隱藏層有多少個參數(包括偏置參數)?
-
【 】 9,000,001
-
【 】 9,000,100
-
【 】 27,000,001
-
【★】 27,000,100
博主注:先計算W[1]=[l[1],X]=[100,300∗300∗3]=100∗300∗300∗3=27,000,000W[1]=[l[1],X]=[100,300∗300∗3]=100∗300∗300∗3=27,000,000,然后計算偏置bb,因為第一隱藏層有100個節點,每個節點有1個偏置參數,所以b=100b=100,加起來就是27,000,000+100=27,000,10027,000,000+100=27,000,100。
3. 問題 3
假設你的輸入是300×300彩色(RGB)圖像,並且你使用卷積層和100個過濾器,每個過濾器都是5×5的大小,請問這個隱藏層有多少個參數(包括偏置參數)?
-
【 】 2501
-
【 】 2600
-
【 】 7500
-
【★】 7600
博主注:視頻【1.7單層卷積網絡】,05:10處。首先,參數和輸入的圖片大小是沒有關系的,無論你給的圖像像素有多大,參數值都是不變的,在這個題中,參數值只與過濾器有關。我們來看一下怎么算:單片過濾器的大小是5∗55∗5,由於輸入的是RGB圖像,所以信道nc=3nc=3,由此可見,一個完整的過濾器的組成是:5∗5∗nc=5∗5∗35∗5∗nc=5∗5∗3,每一個完整的過濾器只有一個偏置參數bb,所以,每一個完整的過濾器擁有5∗5∗3+1=765∗5∗3+1=76個參數,而此題中使用了100100個過濾器,所以這個隱藏層包含了76∗100=760076∗100=7600個參數。
4. 問題 4
你有一個63x63x16的輸入,並使用大小為7x7的32個過濾器進行卷積,使用步幅為2和無填充,請問輸出是多少?
-
【★】 29x29x32
-
【 】 16x16x32
-
【 】 29x29x16
-
【 】 16x16x16
n = 63, f = 7, s = 2, p = 0, 32 filters.
博主注:我們先來看一下這個輸出尺寸的公式:⌊nh+2p−fs+1⌋×⌊nw+2p−fs+1⌋⌊nh+2p−fs+1⌋×⌊nw+2p−fs+1⌋,我們就直接代入公式:⌊63+2×0−72+1⌋×⌊63+2×0−72+1⌋=⌊562+1⌋×⌊562+1⌋=29×29⌊63+2×0−72+1⌋×⌊63+2×0−72+1⌋=⌊562+1⌋×⌊562+1⌋=29×29,由於有32個過濾器,所以輸出為29×29×3229×29×32。
5. 問題 5
你有一個15x15x8的輸入,並使用“pad = 2”進行填充,填充后的尺寸是多少?
-
【 】 17x17x10
-
【★】 19x19x8
-
【 】 19x19x12
-
【 】 17x17x8
6. 問題 6
你有一個63x63x16的輸入,有32個過濾器進行卷積,每個過濾器的大小為7x7,步幅為1,你想要使用“same”的卷積方式,請問pad的值是多少?
博主注:“same”的卷積方式就是卷積前后的大小不變,也就是63x63x16的輸入進行卷積后的大小依舊為63x63x16,這需要我們對輸入過來的數據進行填充處理。我們來看一下這個輸出尺寸的公式(假設輸入圖像的寬、高相同):⌊n+2p−fs+1⌋⌊n+2p−fs+1⌋,由此我們可以推出來pp的值:p=s×n−n−s+f2=1×63−63−1+72=62=3p=s×n−n−s+f2=1×63−63−1+72=62=3。
7. 問題 7
你有一個32x32x16的輸入,並使用步幅為2、過濾器大小為2的最大化池,請問輸出是多少?
-
【 】 15x15x16
-
【 】 16x16x8
-
【★】 16x16x16
-
【 】 32x32x8
8. 問題 8
因為池化層不具有參數,所以它們不影響反向傳播的計算。
博主注:由卷積層->池化層作為一個layer,在前向傳播過程中,池化層里保存着卷積層的各個部分的最大值/平均值,然后由池化層傳遞給下一層,在反向傳播過程中,由下一層傳遞梯度過來,“不影響反向傳播的計算”這意味着池化層到卷積層(反向)沒有梯度變化,梯度值就為0,既然梯度值為0,那么例如在W[l]=W[l]−α×dW[l]W[l]=W[l]−α×dW[l]的過程中,參數W[l]=W[l]−α×0W[l]=W[l]−α×0,也就是說它不再更新,那么反向傳播到此中斷。所以池化層會影響反向傳播的計算。
9. 問題 9
在視頻中,我們談到了“參數共享”是使用卷積網絡的好處。關於參數共享的下列哪個陳述是正確的?(檢查所有選項。)
-
【★】 它減少了參數的總數,從而減少過擬合。
-
【★】 它允許在整個輸入值的多個位置使用特征檢測器。
-
【 】 它允許為一項任務學習的參數即使對於不同的任務也可以共享(遷移學習)。
-
【】 它允許梯度下降將許多參數設置為零,從而使得連接稀疏。
10. 問題 10
在課堂上,我們討論了“稀疏連接”是使用卷積層的好處。這是什么意思?