Relu
Relu(Linear rectification function)是深度學習中的一種激活函數
其函數表達式為:f(x)=max(0,x)
其函數圖像為:

該函數主要用於cnn卷積神經網絡的卷積(Convolution)和池化(MaxPooling)中,因為經過卷積運算和池化運算后的圖像矩陣的值有正有負,這難免造成了數據規模變得很大,那么經過Relu函數之后的圖像矩陣中的值只留下正數的值。



本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。