[英]Saving a stable model in keras (deep-learning)
我正在努力训练一个模型。 我正在使用检查点的回调,它基本上保存了最佳模型(在验证中具有最小的损失函数)。 我遇到的问题是,有时这个最小值是在第一个时期,验证似乎有点不稳定。 一旦模型稳定或在一定数量的时期之后,有没有办法使用检查点?
这是我的培训和验证曲线的图片:
您可以使用自定义回调,其中,您可以根据您的条件使用逻辑语句。 如果满足条件,您可以从https://github.com/fchollet/keras/blob/master/keras/callbacks.py#L316调用ModelCheckpoint代码。
如果我的话没有意义,这段代码片段就会出现!
谢谢。
class ModifiedCheckpoint(keras.callbacks.Callback):
def __init__(...):
<copy code>
return
def on_train_begin(self, logs={}):
return
def on_train_end(self, logs={}):
return
def on_epoch_begin(self, epoch, logs={}):
return
def on_epoch_end(self, epoch, logs={}):
<insert your logic here>
<and copy code here>
return
def on_batch_begin(self, batch, logs={}):
return
def on_batch_end(self, batch, logs={}):
return
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.