碼上快樂
1秒登錄
首頁
榜單
標簽
關於
搜索
相關內容
簡體
繁體
Relu函數的作用
本文轉載自
查看原文
2022-02-16 16:17
1219
python
/
人工智能
Relu
Relu(Linear rectification function)是深度學習中的一種激活函數
其函數表達式為:f(x)=max(0,x)
其函數圖像為:
該函數主要用於cnn卷積神經網絡的卷積(Convolution)和池化(MaxPooling)中,因為經過卷積運算和池化運算后的圖像矩陣的值有正有負,這難免造成了數據規模變得很大,那么經過Relu函數之后的圖像矩陣中的值只留下正數的值。
優點:
1.極大地減少了數據量
2.在一定程度上減少了運算量
3.避免層數增加。
×
免責聲明!
本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。
猜您在找
ReLU函數
ReLU激活函數
python實現relu函數
ReLU函數的缺陷
ReLU 和sigmoid 函數對比
線性整流函數(ReLU)
激活函數Relu的優點
tensorflow Relu激活函數
ReLU激活函數的缺點
relu6激活函數
粵ICP備18138465號
© 2018-2025 CODEPRJ.COM