![](/img/trans.png)
[英]Does the GridSearchCV always improves model accuracy for classification or regression model?
[英]Loss and accuracy converged but model still improves
我正在使用tensorflow-gpu 1.9.0
以兼容我们在 GPU 机器上拥有的 CUDA 和 cuDNN 版本。 这可能是相关的。
我有一个用于医学图像特征提取的卷积自动编码器。 不用担心可能的过度拟合,我可以通过查看与输入相比的输出图像来判断当前模型有多“好”(因为自动编码器试图仅使用瓶颈特征来重建输入)。 我知道模型不一定提取更多有用的特征,它重建输入的效果越好,但这不是问题也不是问题。
我的问题如下:训练损失和准确率在大约 45 个时期后收敛。 如果我查看输出,我可以清楚地看到形状与原始图像有些相似(我无法在此处显示这些图像)。 如果我继续训练模型,损失不会继续减少(准确度也不会增加),但是,模型在重建输入时会变得更好。 我可以通过并排比较输入和输出来判断。
我已经对模型进行了多达 1000 个 epoch 的训练。 重建的图像比来自 45 epoch 模型的图像好得多,但两种模型的损失相同(0.0070),精度相同。
这是完全出乎意料的行为。 如果损失保持不变,模型怎么可能变得更好?
我使用的损失函数是binary_crossentropy
。
您可以添加衡量其他一些错误(如 MSE)的指标 ( https://keras.io/metrics/ ) 并告诉我们它是如何工作的。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.