![](/img/trans.png)
[英]Tensorflow save final state of LSTM in dynamic_rnn for prediction
[英]Tensorflow LSTM based RNN - Incorrect and Constant Prediction
我希望有人能指出我的 RNN 哪里出了問題。 我的問題的長短在於,無論 my.network 的結構如何,預測始終遵循以下原則:
我已經嘗試了 1、2、3 和 4 層 LSTM,每層都具有不同的神經元計數和 relu 或 tanh 激活函數。 對於上圖,.network 設置為:
model = Sequential()
model.add(LSTM(128, activation='relu', return_sequences=True, input_shape=(length, scaled_train_data.shape[1])))
model.add(LSTM(256, activation='relu', return_sequences=True))
model.add(LSTM(256, activation='relu', return_sequences=True))
model.add(Dropout(0.2))
model.add(LSTM(128, activation='relu'))
model.add(Dense(scaled_train_data.shape[1]))
model.compile(optimizer='adam', loss="mse")
model 的實際訓練通過 ok,沒有事件:
我的數據是財務數據。 大約有 70k 行,我有大約。 70/30 訓練/測試拆分。
我哪里錯了? 謝謝!
因此,通過詢問和閱讀,RNN 似乎不是金融/隨機游走數據的最佳解決方案——至少在我使用的設置中是這樣。 我想知道使用平均值是否會產生更好的結果?
無論如何,繼續強化學習。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.