機器學習自動寫詩-學習筆記


 

要先將字編碼成向量

 

要對之前的信息有記憶

相同的輸入,寫詩,可能有不同的輸出。

可以發現,輸入不止與當前輸入有關,還和之前的輸入有關。要有記憶!

將隱藏層的激活值利用

 

循環神經網絡

a0=0,初始值=0

上次輸入的不同,記憶值不同,使得現在相同的輸入可以得到不同的輸出。


 

缺點:梯度爆炸和梯度消失

記憶值不斷相乘累加。w^n

梯度爆炸和梯度消失:wn(w>1和w<1)。

w'=w-a*Δ

 

需要一個模型,能夠記憶久遠輸入和近期遺忘。


 

LSTM::long short-term memory長短期記憶網絡

加入輸入門、輸出門和遺忘門。使用sigmod函數。

sigmod函數:0-1之間。中點0.5

 

LSTM:

f:遺忘門,forget gate

 

 

循環神經網絡分類概述:

many to many:

  • 有多少輸入,就多少輸出
  • 輸入輸出數目不等

many to one

 

情感分析,差評還是好評。

one to many

看圖說話,寫詩就是這個模型。

 

雙向循環網絡:

不止和之前輸入有關,還和之后的輸入相關。

 

深度循環神經網絡:

很多隱藏層

 作詩用的是lstm:只輸入第一個字,一個一個輸出接着作詩。

 

 

 L1+L2+...+Ln

再求梯度。

 

代碼:

 

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM