繁体   English   中英

损失和准确率收敛,但模型仍在改进

[英]Loss and accuracy converged but model still improves

我正在使用tensorflow-gpu 1.9.0以兼容我们在 GPU 机器上拥有的 CUDA 和 cuDNN 版本。 这可能是相关的。

我有一个用于医学图像特征提取的卷积自动编码器。 不用担心可能的过度拟合,我可以通过查看与输入相比的输出图像来判断当前模型有多“好”(因为自动编码器试图仅使用瓶颈特征来重建输入)。 我知道模型不一定提取更多有用的特征,它重建输入的效果越好,但这不是问题也不是问题。

我的问题如下:训练损失和准确率在大约 45 个时期后收敛。 如果我查看输出,我可以清楚地看到形状与原始图像有些相似(我无法在此处显示这些图像)。 如果我继续训练模型,损失不会继续减少(准确度也不会增加),但是,模型在重建输入时会变得更好。 我可以通过并排比较输入和输出来判断。

我已经对模型进行了多达 1000 个 epoch 的训练。 重建的图像比来自 45 epoch 模型的图像好得多,但两种模型的损失相同(0.0070),精度相同。

这是完全出乎意料的行为。 如果损失保持不变,模型怎么可能变得更好?

我使用的损失函数是binary_crossentropy

您可以添加衡量其他一些错误(如 MSE)的指标 ( https://keras.io/metrics/ ) 并告诉我们它是如何工作的。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM