Pytorch中nn.Dropout2d的作用


Pytorch中nn.Dropout2d的作用

首先,關於Dropout方法,這篇博文有詳細的介紹。簡單來說,

我們在前向傳播的時候,讓某個神經元的激活值以一定的概率p停止工作,這樣可以使模型泛化性更強,因為它不會太依賴某些局部的特征

dropout方法有很多類型,圖像處理中最常用的是Dropout2d,我從網上找了很多的中文資料,都沒有讓人滿意的介紹,意外發現源代碼dropout.py中的介紹還挺好的:

Randomly zero out entire channels:A channel is a 2D feature map.
Each channel will be zeroed out independently on every forward call with probability :attr:`p` using samples from a Bernoulli distribution

它是適用於有多個channel的二維輸出的


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM