激活函数Relu的优点
1.可以使网络训练更快
2.增加网络的非线性
3.防止梯度消失(弥散)
4.使网络具有稀疏性
Dropout层:
作用:随机将一定比例的神经元置为0
神经网络处理图像分类的流程:
训练阶段:
激活函数Relu的优点
1.可以使网络训练更快
2.增加网络的非线性
3.防止梯度消失(弥散)
4.使网络具有稀疏性
Dropout层:
作用:随机将一定比例的神经元置为0
神经网络处理图像分类的流程:
训练阶段:
本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。