繁体   English   中英

Keras多输出中val_loss的计算

[英]Calculation of val_loss in Keras' multiple output

我有一个关于如何在 Keras 的多个输出中计算 val_loss 的问题。 这是我的代码的摘录。

nBatchSize  = 200
nTimeSteps  = 1
nInDims     = 17
nHiddenDims = 10
nFinalDims  = 10
nOutNum     = 24
nTraLen     = 300
nMaxEP      = 20
nValLen     = 50
sHisCSV     = "history.csv"

oModel = Sequential()
oModel.add(Input(batch_input_shape=(nBatchSize, nTimeSteps, nInDims)))
oModel.add(LSTM(nHiddenDims, return_sequences=True,  stateful=True))
oModel.add(LSTM(nHiddenDims, return_sequences=False, stateful=True))
oModel.add(Dense(nFinalDims, activation="relu")
oModel.add(Dense(nOutNum,    activation="linear")
oModel.compile(loss="mse", optimizer=Nadam())

oModel.reset_states()
oHis = oModel.fit_generator(oDataGen, steps_per_epoch=nTraLen,
epochs=nMaxEP, shuffle=False,
validation_data=oDataGen, validation_steps=nValLen,
callbacks=[CSVLogger(sHisCSV, append=True)])

# number of cols is nOutNum(=24), number of rows is len(oEvaGen)
oPredDF = pd.DataFrame(oPredModel.predict_generator(oEvaGen, steps=len(oEvaGen))

# GTDF is a dataframe of Ground Truth
nRMSE   = np.sqrt(np.nanmean(np.array(np.power(oPredDF - oGTDF, 2))))

在history.csv中写了val_loss,写成3317.36。 根据预测结果计算出的 RMSE 为 66.4。

根据我对 Keras 规范的理解,history.csv 中写入的 val_loss 是 24 个输出的平均 MSE。 假设它是正确的,RMSE 可以从 history.csv 计算为 11.76 (= sqrt(3317.36/24)),这与 nRMSE (=66.4) 的值有很大不同,就像 sqrt(3317.36) = 57.6 相当接近它。

我对 val_loss 上的 Keras 规范的理解不正确吗?

你的第一个假设是正确的,但进一步的推导有点错误。
由于MSE是模型输出平方误差的平均值,正如您在 Keras文档中所见:

均方误差
keras.losses.mean_squared_error(y_true, y_pred)

并在 Keras 源代码中:

K.mean(K.square(y_pred - y_true), axis=-1)

因此, RMSE是该值的平方根:

K.sqrt(K.mean(K.square(y_pred - y_true), axis=-1))

你写的是平方误差的平方根,即RSE

所以从你的实际例子来看:
RSE可以计算为sqrt(3317.36/24) = 11.76
RMSE可以计算为sqrt(3317.36) = 57.6

因此,模型提供的 RMSE(和 nRMSE)值是正确的。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM