![](/img/trans.png)
[英]How does sklearn calculates the area under the roc curve for a binary classifier?
[英]Area under the ROC curve using Sklearn?
我无法弄清楚为什么在以下情况下Sklearn
函数roc_auc_score
返回1
:
y_true = [0, 0, 1, 0, 0, 0, 0, 1]
y_scores = [0.18101096153259277, 0.15506085753440857,
0.9940806031227112, 0.05024950951337814,
0.7381414771080017, 0.8922111988067627,
0.8253260850906372, 0.9967281818389893]
roc_auc_score(y_true,y_scores)
最后的三个分数0.7381414771080017, 0.8922111988067627, 0.8253260850906372
与标签0, 0, 0
不匹配。 那么,AUC如何为1? 我这是怎么了?
ROC曲线的auc只是衡量模型相对于肯定类对数据点进行排序的能力。
在您的示例中,正面类别的得分始终大于负面类别的数据点。 因此,auc_roc_score为1是正确的。
pd.DataFrame({'y_true':y_true,'y_scores':y_scores}).sort_values('y_scores',ascending=False)
y_scores y_true
7 0.996728 1
2 0.994081 1
5 0.892211 0
6 0.825326 0
4 0.738141 0
0 0.181011 0
1 0.155061 0
3 0.050250 0
如果您看一下ROC本身,就更容易理解为什么:
> roc_curve(y_true, y_scores)
(array([0., 0., 0., 1.]),
array([0. , 0.5, 1. , 1. ]),
array([1.99672818, 0.99672818, 0.9940806 , 0.05024951]))
返回的元组中的第一个值是FPR,第二个是TPR,第三个是值改变的阈值点。
对于0.99672818的阈值,FPR实际上为0.5,而不是0,这会使您认为ROC的AUC不为0。但是,FPR / TPR点只是行0、0-> 0, 1-> 1、1,并且其下方的区域确实为1。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.