最近真的要被lstm整蒙了,一直理解不了,比如要3預測1,那么這個1怎么體現呢??
https://stackoverflow.com/questions/62204109/return-sequences-false-equivalent-in-pytorch-lstm
Pytorch:
https://blog.csdn.net/BigData_Mining/article/details/104390109 關於輸入和輸出講的算比較清楚的了,沒有之一。
nn,LSTM輸入和輸出的時間步都是seq_len,關鍵看用的時候怎么用,是多對多的用,還是多對1的用
Keras:
https://zhuanlan.zhihu.com/p/85910281
https://blog.csdn.net/computerlov/article/details/107397983
https://www.tensorflow.org/api_docs/python/tf/keras/layers/LSTM
關鍵明白Keras中的return_sequences
和return_state
,就是跟h(t)和c(t)相關