[英]sklearn - Cross validation with multiple scores
我想计算不同分类器的交叉验证测试的召回率、精度和f 度量。 scikit-learn带有cross_val_score但不幸的是这种方法不会返回多个值。
我可以通过调用3 次cross_val_score来计算这些度量,但这效率不高。 有没有更好的解决办法?
现在我写了这个函数:
from sklearn import metrics
def mean_scores(X, y, clf, skf):
cm = np.zeros(len(np.unique(y)) ** 2)
for i, (train, test) in enumerate(skf):
clf.fit(X[train], y[train])
y_pred = clf.predict(X[test])
cm += metrics.confusion_matrix(y[test], y_pred).flatten()
return compute_measures(*cm / skf.n_folds)
def compute_measures(tp, fp, fn, tn):
"""Computes effectiveness measures given a confusion matrix."""
specificity = tn / (tn + fp)
sensitivity = tp / (tp + fn)
fmeasure = 2 * (specificity * sensitivity) / (specificity + sensitivity)
return sensitivity, specificity, fmeasure
它基本上总结了混淆矩阵的值,一旦你有假阳性、假阴性等,你就可以轻松计算召回率、精度等......但我仍然不喜欢这个解决方案:)
现在在 scikit-learn 中: cross_validate
是一个新函数,可以在多个指标上评估模型。 此功能在GridSearchCV
和RandomizedSearchCV
( doc ) 中也可用。 它最近已在 master 中合并,并将在 v0.19 中可用。
cross_validate
函数在两个方面与cross_val_score
不同: 1. 它允许指定多个评估指标。 2. 除了测试分数之外,它还返回一个包含训练分数、拟合时间和分数时间的字典。
典型的用例是:
from sklearn.svm import SVC
from sklearn.datasets import load_iris
from sklearn.model_selection import cross_validate
iris = load_iris()
scoring = ['precision', 'recall', 'f1']
clf = SVC(kernel='linear', C=1, random_state=0)
scores = cross_validate(clf, iris.data, iris.target == 1, cv=5,
scoring=scoring, return_train_score=False)
另请参阅此示例。
您提供的解决方案完全代表了cross_val_score
的功能,完全适合您的情况。 这似乎是正确的方法。
cross_val_score
采用参数n_jobs=
,使评估可并行化。 如果这是您需要的东西,您应该考虑使用sklearn.externals.joblib.Parallel
用并行循环替换您的 for 循环。
更一般地说,正在讨论 scikit learn 的问题跟踪器中的多个分数问题。 可以在此处找到具有代表性的线程。 因此,虽然看起来 scikit-learn 的未来版本将允许评分者的多个输出,但截至目前,这是不可能的。
解决这个问题的一个hacky (免责声明!)方法是稍微更改cross_validation.py
的代码,方法是删除对您的分数是否为数字的条件检查。 但是,此建议非常依赖于版本,因此我将在0.14
版中介绍它。
1) 在 IPython 中,输入from sklearn import cross_validation
,然后是cross_validation??
. 注意显示的文件名并在编辑器中打开它(您可能需要 root 权限)。
2)您会找到此代码,我已经在其中标记了相关行(1066)。 它说
if not isinstance(score, numbers.Number):
raise ValueError("scoring must return a number, got %s (%s)"
" instead." % (str(score), type(score)))
这些线需要删除。 为了跟踪曾经存在的内容(如果您想改回来),请将其替换为以下内容
if not isinstance(score, numbers.Number):
pass
# raise ValueError("scoring must return a number, got %s (%s)"
# " instead." % (str(score), type(score)))
如果您的得分手返回的内容不会使cross_val_score
在其他地方窒息,这应该可以解决您的问题。 如果是这种情况,请告诉我。
你可以用这个:
from sklearn import metrics
from multiscorer import MultiScorer
import numpy as np
scorer = MultiScorer({
'F-measure' : (f1_score, {...}),
'Precision' : (precision_score, {...}),
'Recall' : (recall_score, {...})
})
...
cross_val_score(clf, X, target, scoring=scorer)
results = scorer.get_results()
for name in results.keys():
print '%s: %.4f' % (name, np.average(results[name]) )
multiscorer的源码在Github 上
您可以使用以下代码通过在每个交叉验证步骤中仅拟合一次估算器来计算准确度、精度、召回率和任何其他指标。
def get_true_and_pred_CV(estimator, X, y, n_folds, cv, params):
ys = []
for train_idx, valid_idx in cv:
clf = estimator(**params)
if isinstance(X, np.ndarray):
clf.fit(X[train_idx], y[train_idx])
cur_pred = clf.predict(X[valid_idx])
elif isinstance(X, pd.DataFrame):
clf.fit(X.iloc[train_idx, :], y[train_idx])
cur_pred = clf.predict(X.iloc[valid_idx, :])
else:
raise Exception('Only numpy array and pandas DataFrame ' \
'as types of X are supported')
ys.append((y[valid_idx], cur_pred))
return ys
def fit_and_score_CV(estimator, X, y, n_folds=10, stratify=True, **params):
if not stratify:
cv_arg = sklearn.cross_validation.KFold(y.size, n_folds)
else:
cv_arg = sklearn.cross_validation.StratifiedKFold(y, n_folds)
ys = get_true_and_pred_CV(estimator, X, y, n_folds, cv_arg, params)
cv_acc = map(lambda tp: sklearn.metrics.accuracy_score(tp[0], tp[1]), ys)
cv_pr_weighted = map(lambda tp: sklearn.metrics.precision_score(tp[0], tp[1], average='weighted'), ys)
cv_rec_weighted = map(lambda tp: sklearn.metrics.recall_score(tp[0], tp[1], average='weighted'), ys)
cv_f1_weighted = map(lambda tp: sklearn.metrics.f1_score(tp[0], tp[1], average='weighted'), ys)
# the approach below makes estimator fit multiple times
#cv_acc = sklearn.cross_validation.cross_val_score(algo, X, y, cv=cv_arg, scoring='accuracy')
#cv_pr_weighted = sklearn.cross_validation.cross_val_score(algo, X, y, cv=cv_arg, scoring='precision_weighted')
#cv_rec_weighted = sklearn.cross_validation.cross_val_score(algo, X, y, cv=cv_arg, scoring='recall_weighted')
#cv_f1_weighted = sklearn.cross_validation.cross_val_score(algo, X, y, cv=cv_arg, scoring='f1_weighted')
return {'CV accuracy': np.mean(cv_acc), 'CV precision_weighted': np.mean(cv_pr_weighted),
'CV recall_weighted': np.mean(cv_rec_weighted), 'CV F1_weighted': np.mean(cv_f1_weighted)}
我经常使用这些函数而不是 cross_val_score 来计算多个统计数据。 您可以根据需要更改质量指标。
如果您使用multi-classes查看多个指标,这可能会有所帮助。 用scikit最新文档学习0.19及以上; 您可以使用度量函数传递自己的字典;
custom_scorer = {'accuracy': make_scorer(accuracy_score),
'balanced_accuracy': make_scorer(balanced_accuracy_score),
'precision': make_scorer(precision_score, average='macro'),
'recall': make_scorer(recall_score, average='macro'),
'f1': make_scorer(f1_score, average='macro'),
}
scores = cross_validation.cross_val_score(clf, X_train, y_train,
cv = 10, scoring = custom_scorer)
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.