1 問題定義
時間序列預測問題,用歷史數據,來預測未來數據
2 誤差衡量標准
RMSE
3 網絡結構
lstm單層網絡結構
輸出層為一個神經元
4 訓練過程
loss函數采用MSE
epoch = 20
5 實驗結果
四次測試結果如下:
lstm: [377.532] ,loss=0.00022790221479810906
lstm: [331.740] ,loss=0.00022828886073753883
lstm: [303.397] ,loss=0.0002286371517965179
lstm: [304.071] ,loss=0.00022517439708283525
6 討論
loss接近時,表現出完全不同的誤差RMSE。可以用什么觀點解釋這種現象?
