繁体   English   中英

如何将 Keras 损失输出记录到文件中

[英]How to log Keras loss output to a file

当您运行 Keras 神经网络模型时,您可能会在控制台中看到如下内容:

Epoch 1/3
   6/1000 [..............................] - ETA: 7994s - loss: 5111.7661

随着时间的推移,损失有望改善。 我想随着时间的推移将这些损失记录到一个文件中,以便我可以从中学习。 我试过:

logging.basicConfig(filename='example.log', filemode='w', level=logging.DEBUG)

但这不起作用。 我不确定在这种情况下我需要什么级别的日志记录。

我也尝试过使用回调,如:

def generate_train_batch():
    while 1:
        for i in xrange(0,dset_X.shape[0],3):
            yield dset_X[i:i+3,:,:,:],dset_y[i:i+3,:,:]

class LossHistory(keras.callbacks.Callback):
    def on_train_begin(self, logs={}):
        self.losses = []

    def on_batch_end(self, batch, logs={}):
        self.losses.append(logs.get('loss'))
logloss=LossHistory()
colorize.fit_generator(generate_train_batch(),samples_per_epoch=1000,nb_epoch=3,callbacks=['logloss'])

但显然这不是写入文件。 无论采用何种方法,通过回调或日志记录模块或其他任何方式,我都希望听到您将 keras 神经网络的丢失记录到文件中的解决方案。 谢谢!

您可以使用CSVLogger回调。

例如:

from keras.callbacks import CSVLogger

csv_logger = CSVLogger('log.csv', append=True, separator=';')
model.fit(X_train, Y_train, callbacks=[csv_logger])

查看: Keras 回调

您的问题有一个简单的解决方案。 每次使用任何fit方法时,都会返回名为History Callback的特殊回调。 它有一个字段history ,它是每个 epoch 之后注册的所有指标的字典。 因此,要在每个 epoch 后获取损失函数值列表,您可以轻松执行以下操作:

history_callback = model.fit(params...)
loss_history = history_callback.history["loss"]

将此类列表保存到文件中很容易(例如,通过将其转换为numpy数组并使用savetxt方法)。

更新:

尝试:

import numpy
numpy_loss_history = numpy.array(loss_history)
numpy.savetxt("loss_history.txt", numpy_loss_history, delimiter=",")

更新 2:

Keras Callbacks 文档中的Create a Callback段落中写了每批后记录损失问题的解决方案。

老问题,但在这里。 Keras 历史输出与 Pandas DataSet 输入完美匹配。

如果您希望将整个历史记录在一行中: pandas.DataFrame(model.fit(...).history).to_csv("history.csv")

干杯

您可以在 model.fit 方法之前将 sys.stdout 对象重定向到一个文件,并在 model.fit 方法之后将其重新分配给标准控制台,如下所示:

import sys
oldStdout = sys.stdout
file = open('logFile', 'w')
sys.stdout = file
model.fit(Xtrain, Ytrain)
sys.stdout = oldStdout

最好是创建一个LambdaCallback

from keras.callbacks import LambdaCallback

txt_log = open('loss_log.txt', mode='wt', buffering=1)

save_op_callback = LambdaCallback(
  on_epoch_end = lambda epoch, logs: txt_log.write(
    {'epoch': epoch, 'loss': logs['loss']} + '\n'),
  on_train_end = lambda logs: txt_log.close()
)

现在,只需在 model.fit 函数中像这样添加它:

model.fit(...,callbacks = [save_op_callback])

所以在 TensorFlow 2.0 中,很容易得到每个 epoch 的 Loss 和 Accuracy,因为它返回一个 History 对象。 它的 History.history 属性记录了连续 epoch 的训练损失值和度量值,以及验证损失值和验证度量值

如果您有验证数据

History = model.fit(trainX,trainY,validation_data = (testX,testY),batch_size= 100, epochs = epochs,verbose = 1)
train_loss = History.history['loss']
val_loss   = History.history['val_loss']
acc = History.history['accuracy']
val_acc = History.history['val_accuracy']

如果您没有验证数据

History = model.fit(trainX,trainY,batch_size= 100, epochs = epochs,verbose = 1)
train_loss = History.history['loss']
acc = History.history['accuracy']

然后将列表数据保存到文本文件中,使用以下代码

import numpy as np
train_loss = np.array(loss_history)
np.savetxt("train_loss.txt", train_loss, delimiter=",")

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM