Pytorch的nn.LSTM和Keras中LSTM對比


最近真的要被lstm整蒙了,一直理解不了,比如要3預測1,那么這個1怎么體現呢??

https://stackoverflow.com/questions/62204109/return-sequences-false-equivalent-in-pytorch-lstm

Pytorch:

https://blog.csdn.net/BigData_Mining/article/details/104390109   關於輸入和輸出講的算比較清楚的了,沒有之一。

nn,LSTM輸入和輸出的時間步都是seq_len,關鍵看用的時候怎么用,是多對多的用,還是多對1的用

 

Keras:

https://zhuanlan.zhihu.com/p/85910281

https://blog.csdn.net/computerlov/article/details/107397983

https://www.tensorflow.org/api_docs/python/tf/keras/layers/LSTM

關鍵明白Keras中的return_sequencesreturn_state,就是跟h(t)和c(t)相關

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM