[英]Zero Importance Feature Removal Without Refit in SciKit-Learn GradientBoostingClassifier
在SciKit-Learn中安裝GradientBoostingClassifier后,某些功能的重要性為零。
我的理解是,重要性為零將意味着不會對此功能進行拆分。
如果我嘗試使用不包含功能的數據集進行預測,則由於沒有所有功能而會引發錯誤。
當然,我意識到我可以刪除零重要性功能,但是我寧願不更改已經適合的模型。 (如果刪除零重要性功能並進行改裝,我會得到一個略有不同的模型。)
這是模型需要零重要性功能進行預測的錯誤,還是我沒有考慮的零重要性功能? 是否有解決方法以獲得完全相同的模型?
(我正在預見一個問題,為什么這很重要-這是因為要求零重要性功能意味着從一個非常大的數據庫中提取更多列,並且在模型中包含不執行任何操作的功能看起來很草率。)
這不是錯誤,而是預期的行為。 在對模型進行了培訓之后,Scikit不會做出關於應該包含或不包含哪些功能的假設。
相反,當您調用fit
模型時,會隱式假定您已經執行了特征選擇,以刪除對模型不重要的特征。 擬合后,無論特征是否重要,您都將提供與擬合模型相同大小的數據集。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.