簡體   English   中英

Trains 會自動記錄 Tensorboard HParams 嗎?

[英]Will Trains automagically log Tensorboard HParams?

我知道可以將超參數作為字典發送到火車。

但是它也可以自動記錄使用 TF2 HParams 模塊記錄的超參數嗎?

編輯:這是在HParams 教程中使用hp.hparams(hparams)

Tensorboard HParams

免責聲明:我是 allegro.ai Trains 團隊的一員

從屏幕抓取來看,似乎是多次運行具有不同的超參數,以及用於顯示的平行坐標圖。 這相當於使用不同的超參數多次運行相同的基礎實驗並將結果與​​ Trains Web UI 進行比較,到目前為止一切順利:)

基於HParam 接口,必須使用 TensorFlow 才能從 HP 采樣,通常在代碼中。 您如何將這種方法擴展到多個實驗? (這不僅僅是自動記錄 hparams 而是您需要創建多個實驗,每個參數集一個)

使用外部優化器進行優化不是更有意義嗎? 這樣你就可以擴展到多台機器,並且有更復雜的優化策略(比如 Optuna),你可以在 train examples/optimization 中找到一些例子。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM