- Batch normalization + ReLU
原論文認為批歸一化的原理是:通過歸一化操作使網絡的每層特征的分布盡可能的穩定,從而減少Internal Covariate Shift
relu是目前應用最為廣泛的激活函數,
由於其梯度要么是1,要么是0,可以有效抑制梯度爆炸/消失
通過BN和ReLU,目前的網絡已經可以達到非常深
網絡越深,提取的特征往往越抽象,越具有語義信息。過渡抽象的特征可能並不適合相對簡單的任務。
原論文認為批歸一化的原理是:通過歸一化操作使網絡的每層特征的分布盡可能的穩定,從而減少Internal Covariate Shift
relu是目前應用最為廣泛的激活函數,
由於其梯度要么是1,要么是0,可以有效抑制梯度爆炸/消失
通過BN和ReLU,目前的網絡已經可以達到非常深
網絡越深,提取的特征往往越抽象,越具有語義信息。過渡抽象的特征可能並不適合相對簡單的任務。
本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。