Pytorch中nn.Dropout2d的作用
首先,關於Dropout方法,這篇博文有詳細的介紹。簡單來說,
我們在前向傳播的時候,讓某個神經元的激活值以一定的概率p停止工作,這樣可以使模型泛化性更強,因為它不會太依賴某些局部的特征
dropout方法有很多類型,圖像處理中最常用的是Dropout2d,我從網上找了很多的中文資料,都沒有讓人滿意的介紹,意外發現源代碼dropout.py中的介紹還挺好的:
Randomly zero out entire channels:A channel is a 2D feature map.
Each channel will be zeroed out independently on every forward call with probability :attr:`p` using samples from a Bernoulli distribution
它是適用於有多個channel的二維輸出的