[英]eli5 and SHAP for interpreting XGBoost results
我使用 XGBoost 算法嘗試了 eli5 和 SHAP 來解釋回歸的結果。 我得到了一些矛盾的結果,截圖如下。 和 我不完全理解 eli5 和 SHAP 之間的區別,我想找出更依賴哪種解釋。 我將不勝感激對此的建議和見解。 ...
[英]eli5 and SHAP for interpreting XGBoost results
我使用 XGBoost 算法嘗試了 eli5 和 SHAP 來解釋回歸的結果。 我得到了一些矛盾的結果,截圖如下。 和 我不完全理解 eli5 和 SHAP 之間的區別,我想找出更依賴哪種解釋。 我將不勝感激對此的建議和見解。 ...
[英]Eli5: AttributeError: 'HTML' object has no attribute 'highlight_spaces'
誰能向我解釋如何使用 eli5 打印來篩選 scikit-learn 估計器權重的重要性? 我寫了這個: 但錯誤是: 當我只做show_weights(lr, feature_names=boston.feature_names)沒有 format_text 部分時,錯誤是: 順便提一 ...
[英]AttributeError: module 'jinja2.ext' has no attribute 'with_'
我嘗試通過我的 google colab 文件中的以下命令安裝 eli5 Python 包。 運行上述命令時出現此錯誤。 AttributeError:模塊“jinja2.ext”沒有屬性“with_” 我嘗試通過以下命令更新 jinja2,但沒有解決問題。 如何解決這個問題? ...
[英]ELI5 package yielding all positive weights for XGBoost feature importance
我已經使用 Sklearn 訓練了一個 XGBoost 模型,並且我正在使用 eli5 包提取特征重要性。 我注意到我所有的特征重要性都是積極的: 例如: 如果產生這種輸出,我將如何區分對我的響應變量有正面/負面影響的特征? ...
[英]Using eli5.show_prediction() - NLP Logistic Regression (scikitlearn) - X has 1 features per sample; expecting 13791
我有一個 model 管道,帶有 Tfidf vectorizier 以及 scikitlearn 中的邏輯回歸。 我正在嘗試在我的文本(NLP)上使用 eli5.show_prediction function。 ...
[英]How to correctly use model explainer with unseen data?
我使用管道訓練了我的分類器: 訓練數據具有分類數據,因此轉換后的數據形狀為(x, 100 ) 。 之后,我嘗試解釋 model 對看不見的數據的預測。 由於我將單個未見過的示例直接傳遞給 model,因此它以形狀(x, 15)對其進行了預處理(因為單個觀察沒有所有示例都包含所有分類數據)。 我得到 ...
[英]eli5 show_prediction shows only feature weights and not example prediction
當我使用 eli5 顯示預測功能時,我只看到特征權重而不是顏色突出顯示的示例。 我有以下 sklearn 管道 我使用 eli5 如下 但我只看到這樣的特征權重: 我想看到的是像這樣突出顯示的文本: 我怎樣才能做到這一點? ...
[英]How to explain text clustering result by feature importance? (DBSCAN)
有類似的問題和庫,如ELI5和LIME 。 但是我找不到解決我的問題的方法。 我有一組文檔,我正在嘗試使用 scikit-learn 的DBSCAN對它們進行聚類。 首先,我使用TfidfVectorizer對文檔進行矢量化。 然后,我簡單地對數據進行聚類並接收預測的標簽。 我的問題是:如何解釋集群 ...
[英]Right way to use RFECV and Permutation Importance - Sklearn
在Sklearn #15075中提出了實現這一點的建議,但與此同時,建議使用eli5作為解決方案。 但是,我不確定我是否以正確的方式使用它。 這是我的代碼: 有幾個問題: 我不確定我是否以正確的方式使用交叉驗證。 PermutationImportance是使用cv來驗證驗證集的重要性,或者交叉 ...
[英]Problem with XGboost Classification & eli5 package
在訓練 XGBoost 分類 model 時,我使用 eli5 function “explain_prediction()”來查看對個體預測的特征貢獻。 但是,eli5 package 似乎將我的 model 視為回歸器而不是分類器。 下面是一段代碼,顯示了我的 model、我的預測,然后是來自“ ...
[英]eli5 explain_weights_xgboost KeyError: 'bias'
我是 xgboost 的新手,我訓練了一個 model,效果很好。 現在我正在嘗試使用 eli5 查看權重,我得到: KeyError: 'bias' 謝謝! ...
[英]eli5 permuter.feature_importances_ returning all zeros
我正在嘗試在一小部分數據樣本上獲取 RandomForestClassifier 的排列重要性,但是雖然我可以獲得簡單的特征重要性,但我的排列重要性會全部歸零。 這是代碼: 輸入1: 輸出1: 輸入2: 輸出2: (問題)輸入3: (問題)輸出3: 我希望在這里得到值,但我得到的是零 - 我做錯 ...
[英]How to get feature names from ELI5 when transformer includes an embedded pipeline
ELI5庫提供了函數transform_feature_names來檢索sklearn轉換器輸出的特征名稱。 文檔說,當轉換器包含嵌套管道時,該函數開箱即用。 我正在嘗試使該函數在SO 57528350的答案中處理示例的簡化版本。 我的簡化示例不需要Pipeline ,但在現實生活中我需要它來 ...
[英]Question about Permutation Importance on LSTM Keras
我運行 LSTM 只是為了查看包含 400 多個特征的數據集的特征重要性。 我使用 Keras scikit-learn 包裝器來使用 eli5 的 PermutationImportance 函數。 但代碼正在返回 如果我使用model.fit()代碼運行順利,但無法調試排列重要性的錯誤。 ...
[英]Is there any alternative to Eli5?
我試圖通過使用 Eli5 計算排列重要性,但是命令 eli5.show_weights 不獲取任何圖像或任何東西。 (在python 2.7、3.7中嘗試過)你能幫忙嗎? 代碼如下: 代碼片段 ...
[英]`eli5.show_weights` displayed standard deviation does not agree with the values in `feature_importances_std_`
PermutationImportance對象有一些不錯的屬性,例如feature_importances_和feature_importances_std_ 。 為了以 HTML 樣式可視化此屬性,我使用了eli5.show_weights函數。 但是,我注意到顯示的標准偏差與feature_ ...
[英]What exactly does `eli5.show_weights` display for a classification model?
我使用eli5來應用特征重要性的排列過程。 在文檔中,有一些解釋和一個小例子,但不清楚。 我正在使用sklearn SVC模型來解決分類問題。 我的問題是:當特定特征被改組時,這些權重是准確度的變化(減少/增加)還是這些特征的 SVC 權重? 在這篇中等文章中,作者指出,這些值表明該特征的重新 ...