The same techniques for winning computer vision competitions, such as using multiple crops at test time, are widely used in practical deployments (or production system deployments) of ConvNets.
中文版源自:https://blog.csdn.net/u013733326/article/details/80166080
--------------------------------------------------------------------中文版---------------------------------------------------------------------
1. Question 1
在典型的卷積神經網絡中,隨着網絡的深度增加,你能看到的現象是?
-
【 】 nHnH 和 nWnW 增加,同時nCnC 減少。
-
【 】 nHnH 和 nWnW 減少,同時 nCnC 也減少。
-
【 】 nHnH 和 nWnW 增加,同時 nCnC 也增加。
-
【★】 nHnH 和 nWnW 減少,同時 nCnC 增加。
2. Question 2
在典型的卷積神經網絡中,你能看到的是?
-
【★】 多個卷積層后面跟着的是一個池化層。
-
【 】 多個池化層后面跟着的是一個卷積層。
-
【★】 全連接層(FC)位於最后的幾層。
-
【 】 全連接層(FC)位於開始的幾層。
3. Question 3
為了構建一個非常深的網絡,我們經常在卷積層使用“valid”的填充,只使用池化層來縮小激活值的寬/高度,否則的話就會使得輸入迅速的變小。
博主注:我們經常使用“SAME”的padding方式。
4. Question 4
我們使用普通的網絡結構來訓練一個很深的網絡,要使得網絡適應一個很復雜的功能(比如增加層數),總會有更低的訓練誤差。
博主注:在沒有殘差的普通神經網絡中,理論上是誤差越來越低的,但是實際上是隨着網絡層數的加深,先減小再增加;在有殘差的ResNet中,即使網絡再深,訓練誤差都會隨着網絡層數的加深逐漸減小。
5. Question 5
下面計算殘差(ResNet)塊的公式中,橫線上應該分別填什么?
a[l+2]=g(W[l+2]g(W[l+1]al+b[l+1])+b[l+2]+?–––––– )+?––––––a[l+2]=g(W[l+2]g(W[l+1]al+b[l+1])+b[l+2]+?_ )+?_
博主注:推導一下公式就好了。
a[l+2]=g(z[l+2]+a[l])=g(W[l+2]×a[l+1]+b[l+2]+a[l])=g(W[l+2]×g(z[l+1])+b[l+2]+a[l])=g(W[l+2]×g(W[l+1]×a[l]+b[l+1])+b[l+2]+a[l]––––––––)+0––––––(1.0)(1.1)(1.2)(1.3)(1.0)a[l+2]=g(z[l+2]+a[l])(1.1)=g(W[l+2]×a[l+1]+b[l+2]+a[l])(1.2)=g(W[l+2]×g(z[l+1])+b[l+2]+a[l])(1.3)=g(W[l+2]×g(W[l+1]×a[l]+b[l+1])+b[l+2]+a[l]_)+0_
6. Question 6
關於殘差網絡下面哪個(些)說法是正確的?
-
【 】 使用跳越連接能夠對反向傳播的梯度下降有益且能夠幫你對更深的網絡進行訓練。
-
【★】 跳躍連接計算輸入的復雜的非線性函數以傳遞到網絡中的更深層。
-
【 】 有L層的殘差網絡一共有L2L2種跳躍連接的順序。
-
【★】 跳躍連接能夠使得網絡輕松地學習殘差塊類的輸入輸出間的身份映射。
博主注:請參考這里
7. Question 7
假設你的輸入的維度為64x64x16,單個1x1的卷積過濾器含有多少個參數(包括偏差)?
-
【 】 2
-
【★】 17
-
【 】 4097
-
【 】 1
8. Question 8
假設你有一個維度為nH×nW×nCnH×nW×nC的卷積輸入,下面哪個說法是正確的(假設卷積層為1x1,步伐為1,padding為0)?
-
【★】 你能夠使用1x1的卷積層來減少nCnC,但是不能減少 nHnH、nWnW
-
【★】 你可以使用池化層減少 nHnH、nWnW,但是不能減少 nCnC
-
【 】 你可以使用一個1x1的卷積層來減少nHnH、nWnW和nCnC.
-
【 】 你可以使用池化層減少 nHnH、 nWnW和nCnC.
9. Question 9
關於 Inception 網絡下面哪些說法是正確的
-
【 】 Inception 網絡包含了各種網絡的體系結構(類似於隨機刪除節點模式,它會在每一步中隨機選擇網絡的結構),因此它具有隨機刪除節點的正則化效應。
-
【★】 Inception 塊通常使用1x1的卷積來減少輸入卷積的大小,然后再使用3x3和5x5的卷積。
-
【★】 一個inception 塊允許網絡使用1x1, 3x3, 5x5 的和卷積個池化層的組合。
-
【 】 通過疊加inception塊的方式讓inception 網絡更深不會損害訓練集的表現。
10. Question 10
下面哪些是使用卷積網絡的開源實現(包含模型/權值)的常見原因?
-
【 】 為一個計算機視覺任務訓練的模型通常可以用來數據擴充,即使對於不同的計算機視覺任務也是如此。
-
【★】 為一個計算機視覺任務訓練的參數通常對其他計算機視覺任務的預訓練是有用的。
-
【】 使用獲得計算機視覺競賽獎項的相同的技術,廣泛應用於實際部署。
-
【★】 使用開源實現可以很簡單的來實現復雜的卷積結構。