[英]How to log Keras loss output to a file
当您运行 Keras 神经网络模型时,您可能会在控制台中看到如下内容:
Epoch 1/3
6/1000 [..............................] - ETA: 7994s - loss: 5111.7661
随着时间的推移,损失有望改善。 我想随着时间的推移将这些损失记录到一个文件中,以便我可以从中学习。 我试过:
logging.basicConfig(filename='example.log', filemode='w', level=logging.DEBUG)
但这不起作用。 我不确定在这种情况下我需要什么级别的日志记录。
我也尝试过使用回调,如:
def generate_train_batch():
while 1:
for i in xrange(0,dset_X.shape[0],3):
yield dset_X[i:i+3,:,:,:],dset_y[i:i+3,:,:]
class LossHistory(keras.callbacks.Callback):
def on_train_begin(self, logs={}):
self.losses = []
def on_batch_end(self, batch, logs={}):
self.losses.append(logs.get('loss'))
logloss=LossHistory()
colorize.fit_generator(generate_train_batch(),samples_per_epoch=1000,nb_epoch=3,callbacks=['logloss'])
但显然这不是写入文件。 无论采用何种方法,通过回调或日志记录模块或其他任何方式,我都希望听到您将 keras 神经网络的丢失记录到文件中的解决方案。 谢谢!
您可以使用CSVLogger回调。
例如:
from keras.callbacks import CSVLogger
csv_logger = CSVLogger('log.csv', append=True, separator=';')
model.fit(X_train, Y_train, callbacks=[csv_logger])
查看: Keras 回调
您的问题有一个简单的解决方案。 每次使用任何fit
方法时,都会返回名为History Callback的特殊回调。 它有一个字段history
,它是每个 epoch 之后注册的所有指标的字典。 因此,要在每个 epoch 后获取损失函数值列表,您可以轻松执行以下操作:
history_callback = model.fit(params...)
loss_history = history_callback.history["loss"]
将此类列表保存到文件中很容易(例如,通过将其转换为numpy
数组并使用savetxt
方法)。
更新:
尝试:
import numpy
numpy_loss_history = numpy.array(loss_history)
numpy.savetxt("loss_history.txt", numpy_loss_history, delimiter=",")
更新 2:
Keras Callbacks 文档中的Create a Callback段落中写了每批后记录损失问题的解决方案。
老问题,但在这里。 Keras 历史输出与 Pandas DataSet 输入完美匹配。
如果您希望将整个历史记录在一行中: pandas.DataFrame(model.fit(...).history).to_csv("history.csv")
干杯
您可以在 model.fit 方法之前将 sys.stdout 对象重定向到一个文件,并在 model.fit 方法之后将其重新分配给标准控制台,如下所示:
import sys
oldStdout = sys.stdout
file = open('logFile', 'w')
sys.stdout = file
model.fit(Xtrain, Ytrain)
sys.stdout = oldStdout
最好是创建一个LambdaCallback
:
from keras.callbacks import LambdaCallback
txt_log = open('loss_log.txt', mode='wt', buffering=1)
save_op_callback = LambdaCallback(
on_epoch_end = lambda epoch, logs: txt_log.write(
{'epoch': epoch, 'loss': logs['loss']} + '\n'),
on_train_end = lambda logs: txt_log.close()
)
现在,只需在 model.fit 函数中像这样添加它:
model.fit(...,callbacks = [save_op_callback])
所以在 TensorFlow 2.0 中,很容易得到每个 epoch 的 Loss 和 Accuracy,因为它返回一个 History 对象。 它的 History.history 属性记录了连续 epoch 的训练损失值和度量值,以及验证损失值和验证度量值
如果您有验证数据
History = model.fit(trainX,trainY,validation_data = (testX,testY),batch_size= 100, epochs = epochs,verbose = 1)
train_loss = History.history['loss']
val_loss = History.history['val_loss']
acc = History.history['accuracy']
val_acc = History.history['val_accuracy']
如果您没有验证数据
History = model.fit(trainX,trainY,batch_size= 100, epochs = epochs,verbose = 1)
train_loss = History.history['loss']
acc = History.history['accuracy']
然后将列表数据保存到文本文件中,使用以下代码
import numpy as np
train_loss = np.array(loss_history)
np.savetxt("train_loss.txt", train_loss, delimiter=",")
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.