cost 432 ms
为什么我的 hyper_opt 算法返回错误的“最佳配置”,其中多次写入相同的参数 - Why my hyper_opt algorithm returns a bad 'best configuration' with same parameters written several times

我最近使用搜索算法进行了超参数优化。 目的是在 OpenAI Gym 环境中训练代理。 问题如下:当我使用 ray.tune 的 hyperOpt 算法实现超参数优化时,它会在此配置中多次返回具有相同参数的最佳配置。 此外,我无法使用此最佳配置来进行单元训练。 我推断出问题了。 我在下面的代码下面向 ...

在 xgboost 中对 XGBRegressor 进行超参数调整时出错 - Error while hyper parameter tuning of XGBRegressor in xgboost

我一直在尝试使用 python 中的xgboost和hyperopt库调整我的 XGBoost model 以预测目标列的值。 正确导入所需库后,域空间、目标 function 并运行优化步骤如下: 在执行时,我收到以下错误: 如何调试和解决此错误?我参考了文档但无法理解该问题。 ...

如何使用optuna搜索一组正态分布参数? - How to search a set of normally distributed parameters using optuna?

我正在尝试优化具有 13 个参数的自定义模型(没有任何花哨的 ML),我知道其中 12 个参数是正态分布的。 我使用hyperopt库获得了不错的结果: 在这里我可以指定每个参数的搜索空间的形状是正态分布的。 我有 32 个内核,默认的Trials()对象只使用其中一个。 Hyperopt建 ...

使用 hyperopt 进行评估和预测的不同结果指标 - Different result metric from evaluation and prediction with hyperopt

这是我第一次体验调整 XGBoost 的超参数。 我的计划是使用 hyperopt 找到最佳超参数。 我根据 R2 分数和 MAPE 显示损失值。 运行代码后,我捕获了最佳损失值。 当我使用那个超参数时,我得到了与以前不同的 MAPE 和 R2 结果。 你能给我一些解释吗,为什么会这样? ...

如何使用 mlrMBO 和 mlr 进行超参数优化和调整 - How to use mlrMBO with mlr for hyperparameter optimisation and tuning

我试图在目标是多类分类的数据集上用 R 训练 ML 算法(rf、adaboost、xgboost)。 对于超参数调整,我使用 MLR 包。 我下面代码的目标是调整参数 mtry 和 nodesize,但将 ntrees 保持在 128(使用 mlrMBO)。 但是,我收到以下错误消息。 我怎样才能 ...

为什么最好的损失没有更新? - Why the best loss doesn't updated?

我正在尝试使用 HYPEROPT 运行参数优化,但我没有看到最佳损失值的打印有任何变化。 我试图更改精度符号,但没有帮助。 我在自己的随机试验中尝试了测试模型,结果要好得多。 如何优化参数? 我跟着这个笔记本。 最小代码示例:import pandas as pd from sklearn.met ...

当我们在 vw-hyperopt 中指定“--algorithms=sgd”时,它是否以自适应、标准化和不变的更新运行? - When we specify “--algorithms=sgd” in vw-hyperopt, does it run with adaptive, normalised and invariant updates?

混淆是因为当我们在 vw 命令行中指定 --sgd 时,它运行经典的 sgd,没有自适应、规范化和不变的更新。 那么,当我们在 vw-hyperopt 中将算法指定为 sgd 时,它是作为经典运行还是带有特殊更新? 是否必须在 vw-hyperopt 中指定算法? 哪个是默认算法? 谢谢你。 ...

H2OTypeError:参数应该是 ? 整数,得到 int64 [3.30.1.1] - H2OTypeError: Argument should be an ?integer, got int64 [3.30.1.1]

我正在尝试将 hyperopt 与 H2O XGBoost 一起简单使用,为此我从一个 numpy 数组中取出元素作为参数,但是我得到了这个 H2OTypeError 并且我不明白为什么?integer的条件不是遇到了int64 。 为了简化示例,H2O XGBoost 在调用时确实有效: 但 ...

我们可以用 Sparktrials 保存 Hyperopt 试验的结果吗 - Can we save the result of the Hyperopt Trials with Sparktrials

我目前正在尝试使用库 hyperopt 优化梯度提升方法的超参数。 当我在自己的计算机上工作时,我使用了Trials类,我能够使用库泡菜保存和重新加载我的结果。 这使我可以保存我测试的所有参数集。 我的代码看起来像这样: 现在,我想让这段代码在具有更多 CPU 的远程服务器上工作,以允许并行化并 ...

Hyperopt 每个超参数的值列表 - Hyperopt list of values per hyperparameter

我正在尝试在回归 model 上使用Hyperopt ,以便每个变量定义其超参数之一,并且需要作为列表传递。 例如,如果我有一个包含 3 个自变量(不包括常数)的回归,我将传递hyperparameter = [x, y, z] (其中x, y, z是浮点数)。 无论它们应用于哪个变量,此超参数的值 ...


 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM