cost 92 ms
為什么我的 hyper_opt 算法返回錯誤的“最佳配置”,其中多次寫入相同的參數

[英]Why my hyper_opt algorithm returns a bad 'best configuration' with same parameters written several times

我最近使用搜索算法進行了超參數優化。 目的是在 OpenAI Gym 環境中訓練代理。 問題如下:當我使用 ray.tune 的 hyperOpt 算法實現超參數優化時,它會在此配置中多次返回具有相同參數的最佳配置。 此外,我無法使用此最佳配置來進行單元訓練。 我推斷出問題了。 我在下面的代碼下面向 ...

HyperOpt fmin() 的位置 arguments function

[英]Positional arguments for HyperOpt fmin() function

我正在嘗試使用hyperopt.fmin來優化 XGBoost 分類器的超參數。 我有異議 function: 我想要可選參數x1和x2 (例如,如果我想指定不同的損失函數)。 然后,我可以最小化: 如何使fn=objective接受兩個額外的位置 arguments? ...

在 xgboost 中對 XGBRegressor 進行超參數調整時出錯

[英]Error while hyper parameter tuning of XGBRegressor in xgboost

我一直在嘗試使用 python 中的xgboost和hyperopt庫調整我的 XGBoost model 以預測目標列的值。 正確導入所需庫后,域空間、目標 function 並運行優化步驟如下: 在執行時,我收到以下錯誤: 如何調試和解決此錯誤?我參考了文檔但無法理解該問題。 ...

如何在 hyperopt 中運行 Adaptive TPE?

[英]How to run Adaptive TPE in hyperopt?

我在 python 中閱讀了 Hyperopt 的文檔,發現有三種可能的方法: 隨機搜索熱塑性彈性體自適應 TPE 要運行隨機搜索,我們有命令rand.suggest和 TPE tpe.suggest ,但是,我找不到任何命令告訴我如何運行自適應 TPE。 你能告訴我它是如何運行的嗎? ...

如何使用optuna搜索一組正態分布參數?

[英]How to search a set of normally distributed parameters using optuna?

我正在嘗試優化具有 13 個參數的自定義模型(沒有任何花哨的 ML),我知道其中 12 個參數是正態分布的。 我使用hyperopt庫獲得了不錯的結果: 在這里我可以指定每個參數的搜索空間的形狀是正態分布的。 我有 32 個內核,默認的Trials()對象只使用其中一個。 Hyperopt建 ...

HyperOpt 多指標評估

[英]HyperOpt multi metric evalution

有誰知道是否有可能以某種方式計算 HyperOpt 中准確度以外的指標? 我還希望它顯示 F1、精度、召回率。 有沒有辦法做到這一點? 如果是這樣,請有人向我解釋一下。 這是我到 Github 的鏈接 如果有人想查看整個代碼: https : //github.com/mikolaj-hale ...

使用 hyperopt 進行評估和預測的不同結果指標

[英]Different result metric from evaluation and prediction with hyperopt

這是我第一次體驗調整 XGBoost 的超參數。 我的計划是使用 hyperopt 找到最佳超參數。 我根據 R2 分數和 MAPE 顯示損失值。 運行代碼后,我捕獲了最佳損失值。 當我使用那個超參數時,我得到了與以前不同的 MAPE 和 R2 結果。 你能給我一些解釋嗎,為什么會這樣? ...

XGBoost Loss 不會隨 HyperOpt 改變

[英]XGBoost Loss not changing with HyperOpt

我正在嘗試使用 HyperOpt 優化我的 XGBoost model 上的超參數,但損失並沒有隨着每次迭代而改變。 您可以在下面找到我的代碼:X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, rando ...

如何使用 mlrMBO 和 mlr 進行超參數優化和調整

[英]How to use mlrMBO with mlr for hyperparameter optimisation and tuning

我試圖在目標是多類分類的數據集上用 R 訓練 ML 算法(rf、adaboost、xgboost)。 對於超參數調整,我使用 MLR 包。 我下面代碼的目標是調整參數 mtry 和 nodesize,但將 ntrees 保持在 128(使用 mlrMBO)。 但是,我收到以下錯誤消息。 我怎樣才能 ...

為什么最好的損失沒有更新?

[英]Why the best loss doesn't updated?

我正在嘗試使用 HYPEROPT 運行參數優化,但我沒有看到最佳損失值的打印有任何變化。 我試圖更改精度符號,但沒有幫助。 我在自己的隨機試驗中嘗試了測試模型,結果要好得多。 如何優化參數? 我跟着這個筆記本。 最小代碼示例:import pandas as pd from sklearn.met ...

Hyperopt spark 3.0 問題

[英]Hyperopt spark 3.0 issues

我正在運行運行時 8.1(包括 Apache Spark 3.1.1、Scala 2.12)試圖讓 hyperopt 按照定義 https://docs.databricks.com/applications/machine-learning/automl-hyperparam-tuning/hyp ...

使用帶約束的 hyperopt

[英]Using hyperopt with constraints

要為 hyperopt 創建搜索空間,我們可以簡單地執行以下操作: 但是,當我想要像x + y = 1這樣的條件時,我該怎么做呢? 並將其擴展到許多變量,例如x+y+z+t = 1 ...

在單台機器上使用 pyspark 設置任務槽

[英]Setting task slots with pyspark on an individual machine

我試圖運行使用ML模型的優化SparkTrials從hyperopt庫。 我在一台有 16 個內核的機器上運行它,但是當我運行以下將內核數設置為 8 的代碼時,我收到一條警告,似乎表明只使用了一個內核。 SparkTrials接受spark_session作為參數, spark_session這 ...

當我們在 vw-hyperopt 中指定“--algorithms=sgd”時,它是否以自適應、標准化和不變的更新運行?

[英]When we specify “--algorithms=sgd” in vw-hyperopt, does it run with adaptive, normalised and invariant updates?

混淆是因為當我們在 vw 命令行中指定 --sgd 時,它運行經典的 sgd,沒有自適應、規范化和不變的更新。 那么,當我們在 vw-hyperopt 中將算法指定為 sgd 時,它是作為經典運行還是帶有特殊更新? 是否必須在 vw-hyperopt 中指定算法? 哪個是默認算法? 謝謝你。 ...

H2OTypeError:參數應該是 ? 整數,得到 int64 [3.30.1.1]

[英]H2OTypeError: Argument should be an ?integer, got int64 [3.30.1.1]

我正在嘗試將 hyperopt 與 H2O XGBoost 一起簡單使用,為此我從一個 numpy 數組中取出元素作為參數,但是我得到了這個 H2OTypeError 並且我不明白為什么?integer的條件不是遇到了int64 。 為了簡化示例,H2O XGBoost 在調用時確實有效: 但 ...

我們可以用 Sparktrials 保存 Hyperopt 試驗的結果嗎

[英]Can we save the result of the Hyperopt Trials with Sparktrials

我目前正在嘗試使用庫 hyperopt 優化梯度提升方法的超參數。 當我在自己的計算機上工作時,我使用了Trials類,我能夠使用庫泡菜保存和重新加載我的結果。 這使我可以保存我測試的所有參數集。 我的代碼看起來像這樣: 現在,我想讓這段代碼在具有更多 CPU 的遠程服務器上工作,以允許並行化並 ...

Hyperopt 每個超參數的值列表

[英]Hyperopt list of values per hyperparameter

我正在嘗試在回歸 model 上使用Hyperopt ,以便每個變量定義其超參數之一,並且需要作為列表傳遞。 例如,如果我有一個包含 3 個自變量(不包括常數)的回歸,我將傳遞hyperparameter = [x, y, z] (其中x, y, z是浮點數)。 無論它們應用於哪個變量,此超參數的值 ...


 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM