[英]Accuracy Score for a vector of predictions using Logistic Regression in Python
我正在使用Logistic回归方法进行多类分类。 基本上我知道,如果我使用precision_score()函数(例如,来自sklearn库),它将像下面这样计算出不同值到不同值的准确性:
y_pred = [0, 2, 1, 3]
y_true = [0, 1, 2, 3]
accuracy_score(y_true, y_pred)
0.5
但是我想为每个标签(来自predict_proba)的顶级Logistic回归预测的向量获取precision_score_new()函数,并计算真实标签是否在此间隔内,如下所示:
y_pred = [[0,1,3] [2,1,4], [1,2,5] [3,7,9]]
y_true = [0, 1, 2, 3]
accuracy_score_new(y_true, y_pred)
1
此示例中的precision_score_new等于1,因为分类器预测标签在间隔中。 如何完成此功能?
是的,您可以使用sklearn中的make_scorer函数来实现。 想法是,您在定义自定义函数时假设它获得了两个参数y_true和y_pred。 如果需要,还可以添加任何其他参数。
这是一个示例: 自定义评分功能
这是另一个示例:同时使用MSE和R2分数
这个答案可能也会有所帮助。
准确性就是(匹配值/总值)。
因此,在您的情况下,它将类似于:
def accuracy_score_new(y_pred, y_true):
matched = 0
for y_p, y_t in zip(y_pred, y_true):
if y_t in y_p:
matched = matched + 1
return (matched / (float) len(y_true))
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.