![](/img/trans.png)
[英]difference between DictionaryLearning and MiniBatchDictionaryLearning in scikit-learn
[英]Difference between scikit-learn and caret GBM results?
在scikit-learn和caret的相同输入数据下,我得到的F1分数大为不同。 这是我为每个模型运行GBM模型的方式。
scikit-learn(默认输出为F1)
est = GradientBoostingClassifier(n_estimators = 4000, learning_rate = 0.1, max_depth = 5, max_features = 'log2', random_state = 0)
cv = StratifiedKFold(y = labels, n_folds = 10, shuffle = True, random_state = 0)
scores = cross_val_score(est, data, labels, scoring = 'f1', cv, n_jobs = -1)
脱字号(必须定义并调用F1):
f1 <- function(data, lev = NULL, model = NULL) {
f1_val <- F1_Score(y_pred = data$pred, y_true = data$obs, positive = lev[1])
c("F1" = f1_val)
}
set.seed(0)
gbm <- train(label ~ .,
data = data,
method = "gbm",
trControl = trainControl(method = "repeatedcv", number = 10, repeats = 3,
summaryFunction = f1, classProbs = TRUE),
metric = "F1",
verbose = FALSE)
从上面的代码中,我使用scikit-learn得到的F1得分约为0.8,而使用插入符号得到的F1得分约为0.25。 小差异可能归因于算法差异,但是我必须对插入符号建模做一些错误处理才能获得我在这里看到的巨大差异。 我不希望发布数据集,因此希望可以从代码中诊断出该问题。 任何帮助将非常感激。
GBT是决策树的集合。 区别来自:
n_estimators = 4000
与n.trees = 100
)。 max_depth = 5
与interaction.depth = 1
)。 当前,您正在将100 MB的 GradientBoostingClassifier
对象的F1得分与100 kB的 gbm
对象进行比较-一种GBT模型包含的信息实际上比另一种模型多出数千倍。
您可能希望使用sklearn2pmml和r2pmml软件包将两个模型导出为标准化PMML表示,并查看生成的PMML文件(纯文本,因此可以在任何文本编辑器中打开)以更好地掌握其内部结构。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.