碼上歡樂
首頁
榜單
標簽
關於
搜索
相關內容
簡體
繁體
Relu函數的作用
本文轉載自
查看原文
2022-02-16 16:17
1219
python
/
人工智能
Relu
Relu(Linear rectification function)是深度學習中的一種激活函數
其函數表達式為:f(x)=max(0,x)
其函數圖像為:
該函數主要用於cnn卷積神經網絡的卷積(Convolution)和池化(MaxPooling)中,因為經過卷積運算和池化運算后的圖像矩陣的值有正有負,這難免造成了數據規模變得很大,那么經過Relu函數之后的圖像矩陣中的值只留下正數的值。
優點:
1.極大地減少了數據量
2.在一定程度上減少了運算量
3.避免層數增加。
×
免責聲明!
本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。
猜您在找
ReLU激活函數
激活函數Relu的優點
tensorflow Relu激活函數
ReLU
ReLU激活函數:簡單之美
激活函數的比較,sigmoid,tanh,relu
sigmod、tanh、ReLU激活函數的實現
ReLu(Rectified Linear Units)激活函數。
深度學習面試題05:激活函數sigmod、tanh、ReLU、LeakyRelu、Relu6
注意力機制+ReLU激活函數=自適應參數化ReLU(深度學習)
粵ICP備18138465號
© 2018-2025 CODEPRJ.COM