[英]Cleaning up tensorflow summaries
我已經訓練了很長時間的模型(200 000次迭代)。 在每次迭代中,我都通過tf.summary.FileWriter()
類保存了大量數據,例如損失,准確性,權重等。 是的,我知道:那太愚蠢了。 結果,我生成了一個將近50 GB的巨大摘要。 現在,我想刪除大部分信息並每50條保持一行。這將使我節省大量硬盤空間並加快tensorboard可視化,同時又不對摘要的質量產生重大影響。 有可能這樣做嗎?
允許您讀取事件文件(存儲摘要的位置)的功能是tf.train.summary_iterator
。 您可以嘗試這樣的事情:
import tensorflow as tf
tfevents_filepath = path_to_existing_event_file
tfevents_folder_new = path_to_new_event_file_folder
writer = tf.summary.FileWriter(tfevents_folder_new)
for e in tf.train.summary_iterator(tfevents_filepath):
if e.step == 0 or e.step % 50 == 0: # or any other criterion but make sure
# you keep events from step 0
writer.add_event(e)
writer.close()
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.