scikit-optimize有两个类用于定义变量类型:Integer 和 Categorical。 问题是 integer 空间 class 只处理真正的整数,而分类 class 不将值解释为数字(不定义点之间的距离 - 根据数据)。 有没有办法将变量定义为离散值列表,例如 [1, 2, 4, ...
scikit-optimize有两个类用于定义变量类型:Integer 和 Categorical。 问题是 integer 空间 class 只处理真正的整数,而分类 class 不将值解释为数字(不定义点之间的距离 - 根据数据)。 有没有办法将变量定义为离散值列表,例如 [1, 2, 4, ...
在优化 LightGBM 超参数时,我想在训练和 CV 评分期间分别对样本进行加权。 从BayesSearchCV docs看来,一种方法可能是将LGBMregressor sample_weight键插入 BayesSearchCV fit_params选项。 但这并不清楚,因为 BayesSe ...
拟合曲线不符合预期的数据点 (xH_data, nH_data)。 有人知道这里可能是什么问题吗? 先谢谢您的帮助。 ...
我正在使用来自scikit-optimize的 BayesSearchCV 在相当不平衡的数据集上训练 model。 从我正在阅读的内容来看,精度或 ROC AUC 将是不平衡数据集的最佳指标。 在我的代码中: 迭代次数只是我选择的一个随机值(尽管我收到一条警告说我已经达到了最好的结果,而且据我所知 ...
我有一个数据Gemini_ETHUSD_d.csv你可以从这个链接下载我尝试从此链接重新运行以下代码: 但它会引发类型错误: 根据此处的解决方案,我使用命令pip install --upgrade scikit-optimize==0.23.3但它引发了另一个问题: 有人可以帮我解决这个问题吗? ...
一般问题:使用 scikit-optimize 进行黑盒优化。 在文档中找不到 model_queue_size 的作用。 我正在做 ask-tell 因为我可以并行化 y 的计算,如示例中所述。 因此,进行一些分析,看起来 opt.tell() 调用在 model_queue_size 设置较小 ...
我已经阅读了一篇关于使用 scipy.optimize.curve_fit() 后手动计算 R 平方值的相关文章。 然而,当他们的函数遵循幂律 (f(x) = a*x^b) 时,他们会计算一个 R 平方值。 我正在尝试做同样的事情,但得到负的 R 平方值。 这是我的代码: 我得到了 -0.05 ...
使用 Skopt 的 BayesSearchCV 进行特征选择时,如何提取最佳特征集的特征名称? 我只知道如何与其他超参数一起获得特征数量,但无法找到如何获得这些最佳特征的名称。 ...
我必须优化一个依赖于外部软件(没有函数定义也没有导数)的黑盒问题,这个问题的评估成本非常高。 它取决于几个变量,其中一些是实数,另一些是整数。 我认为 Scikit Optimize 可能是一个不错的选择。 我想知道以下示例(来自 Scikit Optimize 文档)是否适用于我的实际问题。 ...
我有一个非常大的数据集(700 万行,54 个特征),我想使用XGBoost拟合回归模型。 为了训练最好的模型,我想使用scikit-optimize BayesSearchCV对不同的超参数组合重复运行拟合,直到找到性能最佳的集合。 对于给定的超参数集, XGBoost需要很长时间来训练模型,因 ...
我刚刚开始使用 skopt,所以请随时将我重定向到我可能错过的任何基本教程。 无论如何,这里是: 我有一个优化问题,我通过复杂的物理 model 计算 2 峰光谱,然后提取其洛伦兹曲线(即 6 个参数,每个峰 3 个)。 然后我设置了一个成本 function 来计算计算参数和实验参数之间的平方差 ...
我正在使用来自scikit-optimize的BayesSearchCV来优化XGBoost model 以适应我拥有的一些数据。 虽然 model 很合适,但我对诊断信息中提供的分数感到困惑,无法复制它们。 这是一个使用波士顿房价数据集的示例脚本来说明我的观点: 运行后, xgb_cv.best ...
我阅读了一些有关BayesianOptimization的帖子和教程,但从未看到有关kappa变量的解释。 什么是kappa变量? 它对我们有什么帮助? 这些值如何影响BayesianOptimization过程? ...
我刚刚阅读了有关Bayesian optimization的信息,我想尝试一下。 我安装了scikit-optimize并检查了 API,我很困惑: 我读到贝叶斯优化从一些初始化样本开始。 我看不到在哪里可以更改此号码? ( BayesSearchCV ) n_points将更改参数设置的数量以 ...
还有其他几个与此类似的问题,但我找不到似乎适合的解决方案。 我正在将 LightGBM 与 Scikit-Optimize BayesSearchCV 一起使用。 训练运行了一段时间,然后出现以下错误: 对类似问题的一些回答表明,这可能是使用 GPU 的结果,但我没有可用的 GPU。 我不知道还有 ...
我在使用来自Scikit Optimize的@use_named_args时遇到问题。 问题是我的目标 function 接受 arguments NamedTuple我无法更改它,因为这是我正在处理的项目中的要求。 现在,我需要为超参数搜索实现skopt ,我需要使用@use_named_arg ...
我正在使用 scikit-learn 优化包来调整模型的超参数。 出于性能和可读性的原因(我正在用相同的过程训练多个模型),我想在一个类中构建整个超参数调整: 现在我遇到的问题是装饰器 @use_named_args 没有像他应该的那样在一个类中工作(scikit-optimize 的示例代码) ...
我正在尝试使用 BayesSearchCV 调整 xgboost 模型以进行多类分类。 这是我的代码。 当我运行它时,一切都很好,直到达到模型 10,其中返回此错误: 我显然已经用谷歌搜索过,但没有找到任何有用的东西。 有任何想法吗? 顺便说一句,以防万一,我的数据集中根本没有负值。 ...
我正在尝试使用 RF 分类器,但每次我尝试运行 bayessearchCV function 时,都会返回错误。 附件是我的具体例子和一个你可以运行和重现的例子。 我怀疑这可能是由于 train_test_split function,但我不完全确定如何对其进行分类。 如果我的代码中有任何明显错误的 ...
当我使用scikit-optimize版本 0.7.4 优化scikit-learn 0.23 model 时: 当我运行rf.fit时,它说, 但是当我简单地使用RandomForestClassifier并适合它时,不会发生错误。 那么,如何避免这个问题呢? 谢谢! 完整的回溯如下。 ...