GRU网络


1.GRU(Gated Recurrent Unit)

  为了克服RNN无法远距离依赖而提出了LSTM,而GRU是LSTM的一个变体,GRU保持LSTM效果的同时,又使结构变得简单。

2.GRU结构

  

 

   

   

 

   GRU只有两个gate,一个是reset gate,一个是update gate,update gate类似于input gate 和forget gate,

   重置门用于控制忽略前一时刻的状态信息程度,重置门的值越小,说明忽略的越多

  更新门用于控制前一时刻的状态信息被带入到当前状态中的程度,,更新门越大,说明前一时刻的状态信息带入越多。

  输入两个值,输出为一个值,输入为此使时刻x和上一时刻ht-1,输出这个时刻的ht

 

3.LSTM和GRU的不同

  3.1结构上

    LSTM 3个输入Xt Ht-1 Ct-1,两个输出Ht Ct。GRU两个输入,Xt,Ht-1,一个输出Ht。

    LSTM有3个门,而GRU只有两个门

  3.2功能上

    GRU参数更少,训练更快,相比之下需要的数据量更少

  3.3记忆方式不同

    LSTM是Xt和Ht-1分别权重相乘相加,经过tanh函数,此时得到新memory

    GRU为Ht-1权重乘积之后和reset gate相乘,再经过tanh函数,最终得到new memory,reset gate作用是让这个new memory包括之前ht-1的信息的多少。

 

 

 

 

 

 

 

 

 


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM