**計算Leaky ReLU激活函數
tf.nn.leaky_relu(
features,
alpha=0.2,
name=None )
參數: features:一個Tensor,表示預激活
alpha:x<0時激活函數的斜率
ame:操作的名稱(可選)
返回值:激活值
**
非飽和激活函數:Leaky ReLU的圖像
數學表達式: y = max(0, x) + leak*min(0,x)
優點:
1.能解決深度神經網絡(層數非常多)的“梯度消失”問題,淺層神經網絡(三五層那種)才用sigmoid 作為激活函數。
2.它能加快收斂速度。
————————————————
版權聲明:本文為CSDN博主「qq_41621342」的原創文章,遵循CC 4.0 BY-SA版權協議,轉載請附上原文出處鏈接及本聲明。
原文鏈接:https://blog.csdn.net/qq_41621342/article/details/105262875