[英]Will Trains automagically log Tensorboard HParams?
我知道可以將超參數作為字典發送到火車。
但是它也可以自動記錄使用 TF2 HParams 模塊記錄的超參數嗎?
編輯:這是在HParams 教程中使用hp.hparams(hparams)
。
免責聲明:我是 allegro.ai Trains 團隊的一員
從屏幕抓取來看,似乎是多次運行具有不同的超參數,以及用於顯示的平行坐標圖。 這相當於使用不同的超參數多次運行相同的基礎實驗並將結果與 Trains Web UI 進行比較,到目前為止一切順利:)
基於HParam 接口,必須使用 TensorFlow 才能從 HP 采樣,通常在代碼中。 您如何將這種方法擴展到多個實驗? (這不僅僅是自動記錄 hparams 而是您需要創建多個實驗,每個參數集一個)
使用外部優化器進行優化不是更有意義嗎? 這樣你就可以擴展到多台機器,並且有更復雜的優化策略(比如 Optuna),你可以在 train examples/optimization 中找到一些例子。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.