激活函數Relu的優點
1.可以使網絡訓練更快
2.增加網絡的非線性
3.防止梯度消失(彌散)
4.使網絡具有稀疏性
Dropout層:
作用:隨機將一定比例的神經元置為0
神經網絡處理圖像分類的流程:
訓練階段:
激活函數Relu的優點
1.可以使網絡訓練更快
2.增加網絡的非線性
3.防止梯度消失(彌散)
4.使網絡具有稀疏性
Dropout層:
作用:隨機將一定比例的神經元置為0
神經網絡處理圖像分類的流程:
訓練階段:
本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。