幾句話總結一個算法之RNN、LSTM和GRU


RNN

一般神經網絡隱層的計算是h=g(w * x),其中g是激活函數,相比於一般神經網絡,RNN需要考慮之前序列的信息,因此它的隱藏h的計算除了當前輸入還要考慮上一個狀態的隱藏,h=g(w*x+w'*h'),其中h'是上一次計算的隱層,可見信息傳遞是通過隱層完成的。

LSTM

有上面普通RNN可以知道,每個狀態下的RNN輸入實際有兩個,上一個隱藏h'以及當前輸入x。RNN有個問題是對序列中的各個狀態都是等同對待的,如果某個狀態很重要,是無法長期影響后面的輸出的。LSTM為了解決這個問題提出了類似於門控的想法,三個門控信號均有h'和x計算得到,分別是遺忘門、記憶門和輸出門。遺忘門和記憶門用來融合當前候選隱層狀態和上一時刻的隱層狀態得到"傳遞信息",最后在輸出門的控制下根據當前"傳遞信息"再計算一個隱層和輸出層。

GRU

上面說的LSTM有好幾個門,實際上有部分門是可以共用的,比如遺忘門和記憶門在GRU里面叫更新門;另外,輸出門被移到下方用來計算候選隱藏狀態,在GRU里面叫重置門,重置門有助於捕捉時間序列里短期的依賴關系,更新門有助於捕捉時間序列里長期的依賴關系。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM