簡體   English   中英

Python內核嶺回歸:如何知道特征對於特征選擇的重要性?

[英]Python kernel ridge regression: how to know the feature importance for feature selection?

我正在使用幾個回歸器來訓練和測試我在python中的數據。

盡管sklearn庫中的大多數回歸器都具有用於選擇特征的feature_importances_函數,但內核嶺回歸器中沒有feature_importances_函數。

人們在使用內核嶺回歸器時如何看待每個功能的重要性? 我已經閱讀了文檔,但是沒有相關信息。

以防萬一我的代碼:

from sklearn.kernel_ridge import KernelRidge

kr1 = KernelRidge(kernel='rbf', alpha=1.0, gamma=0.01)
kr1.fit(X_train, y_train)
y_kr1 = kr1.predict(X_test)
print("Mean squared error: %.2f" % np.mean((y_kr1 - y_test) ** 2))

# Explained variance score: 1 is perfect prediction
print('Variance score: %.5f' % kr1.score(X_test, y_test))

當我嘗試

kr1.feature_importances_

錯誤:

'KernelRidge' object has no attribute 'feature_importances_'

您的幫助將不勝感激。

特征重要性是來自諸如sklearn.ensemble.RandomForestClassifier之類的整體學習方法的概念; 它不是嶺回歸模型的屬性。 最接近的對應項是t統計量,不幸的是,您需要手動進行計算。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM