码上欢乐
首页
榜单
标签
关于
搜索
相关内容
简体
繁体
Relu函数的作用
本文转载自
查看原文
2022-02-16 16:17
1219
python
/
人工智能
Relu
Relu(Linear rectification function)是深度学习中的一种激活函数
其函数表达式为:f(x)=max(0,x)
其函数图像为:
该函数主要用于cnn卷积神经网络的卷积(Convolution)和池化(MaxPooling)中,因为经过卷积运算和池化运算后的图像矩阵的值有正有负,这难免造成了数据规模变得很大,那么经过Relu函数之后的图像矩阵中的值只留下正数的值。
优点:
1.极大地减少了数据量
2.在一定程度上减少了运算量
3.避免层数增加。
×
免责声明!
本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。
猜您在找
ReLU函数
ReLU激活函数
python实现relu函数
ReLU函数的缺陷
ReLU 和sigmoid 函数对比
线性整流函数(ReLU)
激活函数Relu的优点
tensorflow Relu激活函数
ReLU激活函数的缺点
relu6激活函数
粤ICP备18138465号
© 2018-2025 CODEPRJ.COM