GRU網絡


1.GRU(Gated Recurrent Unit)

  為了克服RNN無法遠距離依賴而提出了LSTM,而GRU是LSTM的一個變體,GRU保持LSTM效果的同時,又使結構變得簡單。

2.GRU結構

  

 

   

   

 

   GRU只有兩個gate,一個是reset gate,一個是update gate,update gate類似於input gate 和forget gate,

   重置門用於控制忽略前一時刻的狀態信息程度,重置門的值越小,說明忽略的越多

  更新門用於控制前一時刻的狀態信息被帶入到當前狀態中的程度,,更新門越大,說明前一時刻的狀態信息帶入越多。

  輸入兩個值,輸出為一個值,輸入為此使時刻x和上一時刻ht-1,輸出這個時刻的ht

 

3.LSTM和GRU的不同

  3.1結構上

    LSTM 3個輸入Xt Ht-1 Ct-1,兩個輸出Ht Ct。GRU兩個輸入,Xt,Ht-1,一個輸出Ht。

    LSTM有3個門,而GRU只有兩個門

  3.2功能上

    GRU參數更少,訓練更快,相比之下需要的數據量更少

  3.3記憶方式不同

    LSTM是Xt和Ht-1分別權重相乘相加,經過tanh函數,此時得到新memory

    GRU為Ht-1權重乘積之后和reset gate相乘,再經過tanh函數,最終得到new memory,reset gate作用是讓這個new memory包括之前ht-1的信息的多少。

 

 

 

 

 

 

 

 

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM