![](/img/trans.png)
[英]Multivariate time series forecasting with LSTMs in Keras (on future data)
[英]Keras multivariate time series forecasting model returns NaN as MAE and loss
我有多變量時間序列數據,幾天內每 5 秒收集一次。 這包括標准化數據列,如下所示(幾個示例值)。 "P1"
是標簽列。
|-------|-----------------------|-----------------------|----------------------|-----------------------|-----------------------|------------------------|------------------------|----------------------|----------------------|
| | P1 | P2 | P3 | AI_T_MOWA | AI_T_OEL | AI_T_KAT_EIN | AI_T_KAT_AUS | P-Oel | P-Motorwasser |
|-------|-----------------------|-----------------------|----------------------|-----------------------|-----------------------|------------------------|------------------------|----------------------|----------------------|
| 0 | 0.8631193380009695 | 0.8964414887167506 | 0.8840858759128901 | -0.523186057460264 | -0.6599697679790338 | 0.8195843978382326 | 0.6536355179773343 | 2.0167991331023862 | 1.966765280217274 |
|-------|-----------------------|-----------------------|----------------------|-----------------------|-----------------------|------------------------|------------------------|----------------------|----------------------|
| 1 | 2.375731412346451 | 2.416190921505275 | 2.3921080971495456 | 1.2838015319452019 | 0.6783070711474897 | 2.204838829646018 | 2.250184559609546 | 2.752702514412287 | 2.7863834647854797 |
|-------|-----------------------|-----------------------|----------------------|-----------------------|-----------------------|------------------------|------------------------|----------------------|----------------------|
| 2 | 2.375731412346451 | 2.416190921505275 | 2.3921080971495456 | 1.2838015319452019 | 1.2914092683827934 | 2.2484584825559955 | 2.2968465552769324 | 2.4571347629025726 | 2.743245665597679 |
|-------|-----------------------|-----------------------|----------------------|-----------------------|-----------------------|------------------------|------------------------|----------------------|----------------------|
| 3 | 2.3933199248388406 | 2.416190921505275 | 2.3753522946913606 | 1.2838015319452019 | 1.5485166414169536 | 2.2557284247076588 | 2.3039344533529906 | 2.31839887954087 | 2.7863834647854797 |
|-------|-----------------------|-----------------------|----------------------|-----------------------|-----------------------|------------------------|------------------------|----------------------|----------------------|
標准化數據的相應圖表沒有顯示任何異常。
我已將這些數據分為訓練集、驗證集和測試集,因此我的訓練數據是總體數據的前 70%,驗證是接下來的 20%,測試是最后 10%。
train_df_st = df[0:int(self._n*0.7)]
val_df_st = df[int(self._n*0.7):int(self._n*0.9)]
test_df_st = df[int(self._n*0.9):]
然后我產生通過從tensorflows教程WindowGenerator類如Windows 這里。
使用一個簡單的基線模型來預測與輸入相同的輸出,我得到了實際的預測,所以我假設我生成的窗口很好。 我的批次的形狀是
Input shape: (32, 24, 193)
Output shape: (32, 24, 1)
現在到了棘手的部分:我顯然想使用另一個模型來進行更好的預測。 我已經嘗試過僅使用一列使用 Conv1D 並且有效,所以我也想嘗試一下。 我的窗戶看起來像:
CONV_WIDTH = 3
LABEL_WIDTH = 24
INPUT_WIDTH = LABEL_WIDTH + (CONV_WIDTH - 1)
conv_window = WindowGenerator(
input_width=INPUT_WIDTH,
label_width=LABEL_WIDTH,
shift=1,
train_df=train_df_st, val_df=val_df_st, test_df=test_df_st, label_columns=["P1"])
Total window size: 25
Input indices: [ 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23]
Label indices: [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24]
Label column name(s): ['P1']
然后我定義我的模型並使用這里使用的compile_and_fit()
方法。
conv_model = tf.keras.Sequential([
tf.keras.layers.Conv1D(filters=32,
kernel_size=(CONV_WIDTH,),
activation='relu'),
tf.keras.layers.Dense(units=32, activation='relu'),
tf.keras.layers.Dense(units=1),
])
MAX_EPOCHS = 20
def compile_and_fit(model, window, patience=2):
early_stopping = tf.keras.callbacks.EarlyStopping(monitor='val_loss',
patience=patience,
mode='min')
model.compile(loss=tf.losses.MeanSquaredError(),
optimizer=tf.optimizers.Adam(),
metrics=[tf.metrics.MeanAbsoluteError()])
history = model.fit(window.train, epochs=MAX_EPOCHS,
validation_data=window.val,
callbacks=[early_stopping])
return history
history = compile_and_fit(window=conv_window, model=conv_model)
輸入和輸出形狀是:
Input shape: (32, 26, 193)
Output shape: (32, 24, 1)
然而,我的最終輸出只有兩個時期,將 nan 顯示為平均絕對誤差和損失:
Epoch 1/20
382/382 [==============================] - 2s 4ms/step - loss: nan - mean_absolute_error: nan - val_loss: nan - val_mean_absolute_error: nan
Epoch 2/20
382/382 [==============================] - 1s 3ms/step - loss: nan - mean_absolute_error: nan - val_loss: nan - val_mean_absolute_error: nan
如果我繪制一些示例窗口,我會看到我得到標簽,但沒有預測:
我已經嘗試使用稍微不同的窗口實現另一個模型(LSTM),但是使用了類似的方法,但是我得到了相同的 NaN,所以我相信這不是我的模型問題,而是我的數據中的問題?
事實證明我的數據標准化是錯誤的,將其標准化,我得到的是實際值而不是 NaN。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.