Pytorch的nn.LSTM和Keras中LSTM对比


最近真的要被lstm整蒙了,一直理解不了,比如要3预测1,那么这个1怎么体现呢??

https://stackoverflow.com/questions/62204109/return-sequences-false-equivalent-in-pytorch-lstm

Pytorch:

https://blog.csdn.net/BigData_Mining/article/details/104390109   关于输入和输出讲的算比较清楚的了,没有之一。

nn,LSTM输入和输出的时间步都是seq_len,关键看用的时候怎么用,是多对多的用,还是多对1的用

 

Keras:

https://zhuanlan.zhihu.com/p/85910281

https://blog.csdn.net/computerlov/article/details/107397983

https://www.tensorflow.org/api_docs/python/tf/keras/layers/LSTM

关键明白Keras中的return_sequencesreturn_state,就是跟h(t)和c(t)相关

 


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM