原文:深度學習面試題35:RNN梯度消失問題(vanishing gradient)

目錄 梯度消失原因之一:激活函數 梯度消失原因之二:初始化權重 不同損失函數下RNN的梯度消失程度對比 實踐中遇到梯度消失怎么辦 參考資料 在實踐過程中,RNN的一個缺點是在訓練的過程中容易梯度消失。 梯度消失原因之一:激活函數 sigmod的導函數峰值為 . ,由於反向傳播的距離越長,連乘的小數越多,所以sigmod一定會產生梯度消失,並且很嚴重。但是因為tanh的導函數峰值為 ,所以tanh造 ...

2020-07-11 19:49 0 731 推薦指數:

查看詳情

梯度消失vanishing gradient)與梯度爆炸(exploding gradient問題

(1)梯度不穩定問題: 什么是梯度不穩定問題深度神經網絡中的梯度不穩定性,前面層中的梯度或會消失,或會爆炸。 原因:前面層上的梯度是來自於后面層上梯度的乘乘積。當存在過多的層次時,就出現了內在本質上的不穩定場景,如梯度消失梯度爆炸。 (2)梯度消失vanishing ...

Fri Oct 20 23:16:00 CST 2017 0 2998
深度學習面試題08:梯度消失梯度爆炸

目錄   梯度消失   梯度爆炸   參考資料 以下圖的全連接神經網絡為例,來演示梯度爆炸和梯度消失梯度消失 在模型參數w都是(-1,1)之間的數的前提下,如果激活函數選擇的是sigmod(x),那么他的導函數σ’(x ...

Tue Jul 09 04:37:00 CST 2019 0 605
深度學習面試題33:RNN梯度更新(BPTT)

目錄   定義網絡   梯度反向傳播   梯度更新   面試時的變相問法   參考資料 BPTT(back-propagation through time)算法是常用的訓練RNN的方法,其實本質還是BP算法,只不過RNN處理時間序列數據,所以要基於時間反向傳播,故叫隨時間反向傳播 ...

Fri Jul 10 05:41:00 CST 2020 1 990
深度學習面試題38:LSTM如何解決梯度消失問題

目錄   回顧簡單RNN梯度消失問題   LSTM如何解決梯度消失   遺忘門對梯度消失的影響   遺忘門的初始化技巧   參考資料 回顧簡單RNN梯度消失問題 在簡單RNN的前向傳播過程中,輸入的數據循環地與隱藏層里的權重 ...

Thu Jul 16 08:22:00 CST 2020 0 1210
深度學習面試題02:標准梯度下降法

目錄   一元函數的梯度下降法   多元函數的梯度下降法   參考資料 梯度下降是一種迭代式的最優化手段,在機器學習中一般用於求目標函數的極小值點,這個極小值點就是最優的模型內部參數。相比求解析解的手段,GD的通用性更強,所以受到廣泛的使用。 一元函數 ...

Tue Jul 02 18:08:00 CST 2019 0 558
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM