原文:深度學習面試題33:RNN的梯度更新(BPTT)

目錄 定義網絡 梯度反向傳播 梯度更新 面試時的變相問法 參考資料 BPTT back propagation through time 算法是常用的訓練RNN的方法,其實本質還是BP算法,只不過RNN處理時間序列數據,所以要基於時間反向傳播,故叫隨時間反向傳播。 BPTT算法在吳恩達和李宏毅等教授的講義中只是稍微提及了一下,並沒有實際操作。本文就實操了一下,彌補這個空缺並附代碼。 定義網絡 假設 ...

2020-07-09 21:41 1 990 推薦指數:

查看詳情

深度學習面試題35:RNN梯度消失問題(vanishing gradient)

目錄   梯度消失原因之一:激活函數   梯度消失原因之二:初始化權重   不同損失函數下RNN梯度消失程度對比   實踐中遇到梯度消失怎么辦?   參考資料 在實踐過程中,RNN的一個缺點是在訓練的過程中容易梯度消失。 梯度消失原因之一:激活函數 ...

Sun Jul 12 03:49:00 CST 2020 0 731
深度學習面試題08:梯度消失與梯度爆炸

目錄   梯度消失   梯度爆炸   參考資料 以下圖的全連接神經網絡為例,來演示梯度爆炸和梯度消失: 梯度消失 在模型參數w都是(-1,1)之間的數的前提下,如果激活函數選擇的是sigmod(x),那么他的導函數σ’(x ...

Tue Jul 09 04:37:00 CST 2019 0 605
深度學習面試題02:標准梯度下降法

目錄   一元函數的梯度下降法   多元函數的梯度下降法   參考資料 梯度下降是一種迭代式的最優化手段,在機器學習中一般用於求目標函數的極小值點,這個極小值點就是最優的模型內部參數。相比求解析解的手段,GD的通用性更強,所以受到廣泛的使用。 一元函數 ...

Tue Jul 02 18:08:00 CST 2019 0 558
深度學習面試題30:卷積的梯度反向傳播

目錄   基礎概念   自定義一個網絡為例   初始化模型參數   計算卷積核上的梯度   梯度更新   PyTorch實戰   參考資料 在很多機器學習的資料中,對梯度反向傳播在全連接神經網絡的應用介紹的比較多;但是較少有介紹過卷積網絡的梯度是如何反向傳播的,這也是知乎公司 ...

Wed Jul 01 06:58:00 CST 2020 0 1004
深度學習面試題36:RNN與長程依賴關系(Long-Term Dependencies)

目錄   長程依賴關系的解釋   為什么傳統RNN不能解決長程依賴問題   如何解決長程依賴問題   參考資料 長程依賴關系的解釋 句子1:the clouds are in the (). 對語言模型而言,這里的()很容易就能 ...

Tue Jul 14 07:01:00 CST 2020 0 1439
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM