Relu函數的作用


Relu

Relu(Linear rectification function)是深度學習中的一種激活函數

其函數表達式為:f(x)=max(0,x)

其函數圖像為:

該函數主要用於cnn卷積神經網絡的卷積(Convolution)和池化(MaxPooling)中,因為經過卷積運算和池化運算后的圖像矩陣的值有正有負,這難免造成了數據規模變得很大,那么經過Relu函數之后的圖像矩陣中的值只留下正數的值。

優點:

1.極大地減少了數據量

2.在一定程度上減少了運算量

3.避免層數增加。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM