我最近使用搜索算法进行了超参数优化。 目的是在 OpenAI Gym 环境中训练代理。 问题如下:当我使用 ray.tune 的 hyperOpt 算法实现超参数优化时,它会在此配置中多次返回具有相同参数的最佳配置。 此外,我无法使用此最佳配置来进行单元训练。 我推断出问题了。 我在下面的代码下面向 ...
我最近使用搜索算法进行了超参数优化。 目的是在 OpenAI Gym 环境中训练代理。 问题如下:当我使用 ray.tune 的 hyperOpt 算法实现超参数优化时,它会在此配置中多次返回具有相同参数的最佳配置。 此外,我无法使用此最佳配置来进行单元训练。 我推断出问题了。 我在下面的代码下面向 ...
我正在尝试使用hyperopt.fmin来优化 XGBoost 分类器的超参数。 我有异议 function: 我想要可选参数x1和x2 (例如,如果我想指定不同的损失函数)。 然后,我可以最小化: 如何使fn=objective接受两个额外的位置 arguments? ...
我一直在尝试使用 python 中的xgboost和hyperopt库调整我的 XGBoost model 以预测目标列的值。 正确导入所需库后,域空间、目标 function 并运行优化步骤如下: 在执行时,我收到以下错误: 如何调试和解决此错误?我参考了文档但无法理解该问题。 ...
我在 python 中阅读了 Hyperopt 的文档,发现有三种可能的方法: 随机搜索热塑性弹性体自适应 TPE 要运行随机搜索,我们有命令rand.suggest和 TPE tpe.suggest ,但是,我找不到任何命令告诉我如何运行自适应 TPE。 你能告诉我它是如何运行的吗? ...
我正在尝试优化具有 13 个参数的自定义模型(没有任何花哨的 ML),我知道其中 12 个参数是正态分布的。 我使用hyperopt库获得了不错的结果: 在这里我可以指定每个参数的搜索空间的形状是正态分布的。 我有 32 个内核,默认的Trials()对象只使用其中一个。 Hyperopt建 ...
有谁知道是否有可能以某种方式计算 HyperOpt 中准确度以外的指标? 我还希望它显示 F1、精度、召回率。 有没有办法做到这一点? 如果是这样,请有人向我解释一下。 这是我到 Github 的链接 如果有人想查看整个代码: https : //github.com/mikolaj-hale ...
这是我第一次体验调整 XGBoost 的超参数。 我的计划是使用 hyperopt 找到最佳超参数。 我根据 R2 分数和 MAPE 显示损失值。 运行代码后,我捕获了最佳损失值。 当我使用那个超参数时,我得到了与以前不同的 MAPE 和 R2 结果。 你能给我一些解释吗,为什么会这样? ...
我正在尝试使用 HyperOpt 优化我的 XGBoost model 上的超参数,但损失并没有随着每次迭代而改变。 您可以在下面找到我的代码:X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, rando ...
我正在使用 hyperopt。 我在python中运行以下代码: 但我收到以下错误: 有谁知道我该如何解决? ...
我有一个看起来像这样的函数: 此函数的问题在于 h1+h2+h3 != 1。我将如何更改此函数以使 hyperparmaters 的总和 = 1? ...
我试图在目标是多类分类的数据集上用 R 训练 ML 算法(rf、adaboost、xgboost)。 对于超参数调整,我使用 MLR 包。 我下面代码的目标是调整参数 mtry 和 nodesize,但将 ntrees 保持在 128(使用 mlrMBO)。 但是,我收到以下错误消息。 我怎样才能 ...
我正在尝试使用 HYPEROPT 运行参数优化,但我没有看到最佳损失值的打印有任何变化。 我试图更改精度符号,但没有帮助。 我在自己的随机试验中尝试了测试模型,结果要好得多。 如何优化参数? 我跟着这个笔记本。 最小代码示例:import pandas as pd from sklearn.met ...
我正在运行运行时 8.1(包括 Apache Spark 3.1.1、Scala 2.12)试图让 hyperopt 按照定义 https://docs.databricks.com/applications/machine-learning/automl-hyperparam-tuning/hyp ...
要为 hyperopt 创建搜索空间,我们可以简单地执行以下操作: 但是,当我想要像x + y = 1这样的条件时,我该怎么做呢? 并将其扩展到许多变量,例如x+y+z+t = 1 ...
我试图运行使用ML模型的优化SparkTrials从hyperopt库。 我在一台有 16 个内核的机器上运行它,但是当我运行以下将内核数设置为 8 的代码时,我收到一条警告,似乎表明只使用了一个内核。 SparkTrials接受spark_session作为参数, spark_session这 ...
每次尝试在 Google Collab 中安装 HyperOpt-Sklearn 库时,都会出现以下错误: 不知道为什么我在这个库中出现错误而不是在其他库中出现错误。 我使用他们在其网站上建议的安装代码: ...
混淆是因为当我们在 vw 命令行中指定 --sgd 时,它运行经典的 sgd,没有自适应、规范化和不变的更新。 那么,当我们在 vw-hyperopt 中将算法指定为 sgd 时,它是作为经典运行还是带有特殊更新? 是否必须在 vw-hyperopt 中指定算法? 哪个是默认算法? 谢谢你。 ...
我正在尝试将 hyperopt 与 H2O XGBoost 一起简单使用,为此我从一个 numpy 数组中取出元素作为参数,但是我得到了这个 H2OTypeError 并且我不明白为什么?integer的条件不是遇到了int64 。 为了简化示例,H2O XGBoost 在调用时确实有效: 但 ...
我目前正在尝试使用库 hyperopt 优化梯度提升方法的超参数。 当我在自己的计算机上工作时,我使用了Trials类,我能够使用库泡菜保存和重新加载我的结果。 这使我可以保存我测试的所有参数集。 我的代码看起来像这样: 现在,我想让这段代码在具有更多 CPU 的远程服务器上工作,以允许并行化并 ...
我正在尝试在回归 model 上使用Hyperopt ,以便每个变量定义其超参数之一,并且需要作为列表传递。 例如,如果我有一个包含 3 个自变量(不包括常数)的回归,我将传递hyperparameter = [x, y, z] (其中x, y, z是浮点数)。 无论它们应用于哪个变量,此超参数的值 ...