簡體   English   中英

Trains 應該如何與 RayTune 等超參數優化工具一起使用?

[英]How should Trains be used with hyper-param optimization tools like RayTune?

什么是合理的設置? 我可以在同一次執行中多次調用 Task.init() 嗎?

免責聲明:我是 allegro.ai Trains 團隊的一員

一種解決方案是從trains.automation.optimization.SearchStrategy繼承並擴展功能。 這類似於Optuna集成,其中 Optuna 用於貝葉斯優化,而 Trains 執行超參數設置、啟動實驗和檢索性能指標。

另一種選擇(不可擴展但可能更容易開始)是使用 RayTuner 運行您的代碼(顯然設置環境/git repo/docker 等在用戶身上),並使您的訓練代碼看起來像:

# create new experimnt
task = Task.init('hp optimization', 'ray-tuner experiment', reuse_last_task_id=False)
# store the hyperparams (assuming hparam is a dict) 
task.connect(hparam) 
# training loop here
# ...
# shutdown experimnt
task.close()

這意味着每次 RayTuner 執行腳本時都會創建一個新的實驗,並帶有一組新的超參數(假設haparm是一個字典,它將在實驗中注冊為超參數)

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM