《動手學深度學習》task05課后習題


Task05:卷積神經網絡基礎;leNet;卷積神經網絡進階

學習筆記見:https://www.cnblogs.com/guohaoblog/p/12325038.html

 

卷積神經網絡基礎

1、假如你用全連接層處理一張256×256的彩色(RGB)圖像,輸出包含1000個神經元,在使用偏置的情況下,參數數量是:

A、65536001

B、65537000

C、196608001

D、196609000

答:選擇D

圖像展平后長度為3×256×256,權重參數和偏置參數的數量是3×256×256×1000+1000=196609000

 

2、假如你用全連接層處理一張256×256的彩色(RGB)圖像,卷積核的高寬是3×3,輸出包含10個通道,在使用偏置的情況下,這個卷積層共有多少個參數:

A、90

B、100

C、280

D、300

答:選擇B

輸入通道數是3,輸出通道數是10,所以參數數量是10×3×3×3+10=280

 

3、conv2d = nn.Conv2d(in_channels=3, out_channels=4, kernel_size=3, padding=2),輸入一張形狀為3×100×100的圖像,輸出的形狀為:

A、3×102×102

B、3×100×100

C、4×102×102

D、4×100×100

答:選擇C

輸出通道數是4,上下兩側總共填充4行,卷積核高度是3,所以輸出的高度是1043+1=102,寬度同理可得。

 

4、關於卷積層,以下哪種說法是錯誤的:

A、1×1卷積可以看作是通道維上的全連接

B、某個二維卷積層用於處理形狀為3×100×100的輸入,則該卷積層無法處理形狀為3×256×256的輸入

C、卷積層通過填充、步幅、輸入通道數、輸出通道數等調節輸出的形狀

D、兩個連續的3×3卷積核的感受野與一個5×5卷積核的感受野相同

答:選擇B

A項:假設我們將通道維當作特征維,將高和寬維度上的元素當成數據樣本,那么1×1卷積可看作通道維上的全連接。主要有兩大作用:①實現跨通道的交互和信息整合 ②進行卷積核通道的降維和升維。

B項::對於高寬維度,只要輸入的高寬(填充后的)大於或等於卷積核的高寬即可進行計算

C和D項正確

 

5、關於池化層,以下哪種說法是錯誤的:

A、池化層不參與反向傳播

B、池化層沒有模型參數

C、池化層通常會減小特征圖的高和寬

D、池化層的輸入和輸出具有相同的通道數

答:選擇A

池化層有參與模型的正向計算,同樣也會參與反向傳播,只是池化層沒有模型參數。

 

LeNet

1、關於LeNet,以下說法中錯誤的是:

A、LeNet主要分為兩個部分:卷積層塊和全連接層塊

B、LeNet的絕大多數參數集中在卷積層塊部分

C、LeNet在連接卷積層塊和全連接層塊時,需要做一次展平操作

D、LeNet的卷積層塊交替使用卷積層和池化層。

答:選擇B

 

 LeNet模型中,90%以上的參數集中在全連接層塊。

 

2、關於卷積神經網絡,以下說法中錯誤的是:

A、因為全連接層的參數數量比卷積層多,所以全連接層可以更好地提取空間信息

B、使用形狀為2×2,步幅為2的池化層,會將高和寬都減半

C、卷積神經網絡通過使用滑動窗口在輸入的不同位置處重復計算,減小參數數量

D、在通過卷積層或池化層后,輸出的高和寬可能減小,為了盡可能保留輸入的特征,我們可以在減小高寬的同時增加通道數

答:選擇A

①全連接層把圖像展平成一個向量,在輸入圖像上相鄰的元素可能因為展平操作不再相鄰,網絡難以捕捉局部信息。而卷積層的設計,天然地具有提取局部信息的能力。

②卷積層的參數量更少

 

卷積神經網絡進階

1、關於AlexNet描述錯誤的是

A、用Dropout來控制全連接層的模型復雜度

B、包含有5層卷積和2層全連接隱藏層,以及1個全連接輸出層

C、將LeNet中的ReLU激活函數改成了sigmoid激活函數。

D、首次證明了學習到的特征可以超越⼿⼯設計的特征

答:選擇C

2、下列哪個網絡串聯多個由卷積層和“全連接”層構成的小⽹絡來構建⼀個深層⽹絡:

A、AlexNet

B、VGG

C、NiN

D、GoogLeNet

答:選擇C

這個選項容易誤選B,VGG:通過重復使⽤簡單的基礎塊來構建深度模型。NiN:串聯多個由卷積層和“全連接”層構成的小⽹絡來構建⼀個深層⽹絡。

⽤輸出通道數等於標簽類別數的NiN塊,然后使⽤全局平均池化層對每個通道中所有元素求平均並直接⽤於分類。

 

3、下列模型不是由基礎塊重復堆疊而成的是

A、AlexNet

B、VGG

C、NiN

D、GoogLeNet

答:選擇A

AlexNet由5個卷積層+2個全連接隱藏層+1個全連接層組成

 

4、通道數為3,寬高均為224的輸入,經過一層輸出通道數為96,卷積核大小為11,步長為4,無padding的卷積層后,得到的feature map的寬高為

A、96

B、54

C、53

D、224

答:選擇B

卷積計算公式: (n + 2p - f)/s + 1

(22411)/4+1=54

 

5、關於VGG描述正確的是

A、使⽤全局平均池化層對每個通道中所有元素求平均並直接⽤於分類。

B、通過不同窗口形狀的卷積層和最⼤池化層來並⾏抽取信息。

C、與AlexNet相比,難以靈活地改變模型結構。

D、通過重復使⽤簡單的基礎塊來構建深度模型。

答:選擇D

A項說的是NiN,B項說的是GoogLeNet,C項剛好說反了。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM