簡體   English   中英

Tensorflow 基於 LSTM 的 RNN - 不正確和恆定的預測

[英]Tensorflow LSTM based RNN - Incorrect and Constant Prediction

我希望有人能指出我的 RNN 哪里出了問題。 我的問題的長短在於,無論 my.network 的結構如何,預測始終遵循以下原則:

在此處輸入圖像描述

我已經嘗試了 1、2、3 和 4 層 LSTM,每層都具有不同的神經元計數和 relu 或 tanh 激活函數。 對於上圖,.network 設置為:

model = Sequential()
model.add(LSTM(128, activation='relu', return_sequences=True, input_shape=(length, scaled_train_data.shape[1]))) 
model.add(LSTM(256, activation='relu', return_sequences=True))
model.add(LSTM(256, activation='relu', return_sequences=True))
model.add(Dropout(0.2))
model.add(LSTM(128, activation='relu'))
model.add(Dense(scaled_train_data.shape[1]))
model.compile(optimizer='adam', loss="mse")

model 的實際訓練通過 ok,沒有事件:

在此處輸入圖像描述

我的數據是財務數據。 大約有 70k 行,我有大約。 70/30 訓練/測試拆分。

我哪里錯了? 謝謝!

因此,通過詢問和閱讀,RNN 似乎不是金融/隨機游走數據的最佳解決方案——至少在我使用的設置中是這樣。 我想知道使用平均值是否會產生更好的結果?

無論如何,繼續強化學習。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM