tf.nn.leaky_relu


**計算Leaky ReLU激活函數
tf.nn.leaky_relu(
features,
alpha=0.2,
name=None )
參數: features:一個Tensor,表示預激活
alpha:x<0時激活函數的斜率
ame:操作的名稱(可選)
返回值:激活值
**

非飽和激活函數:Leaky ReLU的圖像

數學表達式: y = max(0, x) + leak*min(0,x)
優點:
1.能解決深度神經網絡(層數非常多)的“梯度消失”問題,淺層神經網絡(三五層那種)才用sigmoid 作為激活函數。
2.它能加快收斂速度。
————————————————
版權聲明:本文為CSDN博主「qq_41621342」的原創文章,遵循CC 4.0 BY-SA版權協議,轉載請附上原文出處鏈接及本聲明。
原文鏈接:https://blog.csdn.net/qq_41621342/article/details/105262875


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM