繁体   English   中英

RFECV 中的准确度值完全相同

[英]Exactly same values for accuracy in RFECV

我正在尝试使用 RFECV 拟合逻辑回归。 那是我的代码:

log_reg = LogisticRegression(solver = "lbfgs", 
                             max_iter = 1000)
random.seed(4711)
rfecv = RFECV(estimator = log_reg,
              scoring = "accuracy", 
              cv = 10)

Model = rfecv.fit(X_train, y_train)

我不认为我的数据或代码有什么问题,但是对于几乎每个不同的特征大小值,准确性都是完全相同的:

Model.grid_scores_
array([0.76200776, 0.76200776, 0.76200776, 0.76200776, 0.76200776,
       0.76200776, 0.76200776, 0.76200776, 0.76200776, 0.76200776,
       0.76200776, 0.76200776, 0.76200776, 0.76200776, 0.76200776,
       0.76200776, 0.76200776, 0.76200776, 0.76200776, 0.76556425,
       0.80968999, 0.80962074])

这怎么可能发生? 我的数据很大(超过 20000 次观察)。 我无法想象在交叉验证的每一个折叠中,都正确估计了相同的情况。 但如果是这样,这怎么可能发生? 1 个变量可以解释 19 个变量,但不能解释 20 个变量? 那为什么不拿第一个和第20个呢? 我真的很困惑。

我相信你所有的准确度都是一样的,因为LogisticRegression默认使用 L2 正则化。 也就是说, penalty='l2'除非你传递其他东西。

这意味着即使Model使用所有 22 个特征,底层算法log_reg使用 L2 正则化惩罚 beta 系数。 因此,如果您修剪最不重要的特征,它不会影响准确性,因为具有 22 个特征的底层 logit model 已将最不重要特征的系数推向接近于零。

我建议你试试:

# Model with no penalty
log_reg = LogisticRegression(solver='lbfgs', 
                             max_iter=1000,
                             penalty='none')

# Set seed
random.seed(4711)

# Initialize same search as before
rfecv = RFECV(estimator=log_reg,
              scoring='accuracy', 
              cv=10)

# Fit search
rfecv.fit(X_train, y_train)

# Tell us how it went
rfecv.grid_scores_

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM