cost 84 ms
用於解釋 XGBoost 結果的 eli5 和 SHAP

[英]eli5 and SHAP for interpreting XGBoost results

我使用 XGBoost 算法嘗試了 eli5 和 SHAP 來解釋回歸的結果。 我得到了一些矛盾的結果,截圖如下。 和 我不完全理解 eli5 和 SHAP 之間的區別,我想找出更依賴哪種解釋。 我將不勝感激對此的建議和見解。 ...

AttributeError:模塊“jinja2.ext”沒有屬性“with_”

[英]AttributeError: module 'jinja2.ext' has no attribute 'with_'

我嘗試通過我的 google colab 文件中的以下命令安裝 eli5 Python 包。 運行上述命令時出現此錯誤。 AttributeError:模塊“jinja2.ext”沒有屬性“with_” 我嘗試通過以下命令更新 jinja2,但沒有解決問題。 如何解決這個問題? ...

ELI5 包為 XGBoost 功能重要性產生所有正權重

[英]ELI5 package yielding all positive weights for XGBoost feature importance

我已經使用 Sklearn 訓練了一個 XGBoost 模型,並且我正在使用 eli5 包提取特征重要性。 我注意到我所有的特征重要性都是積極的: 例如: 如果產生這種輸出,我將如何區分對我的響應變量有正面/負面影響的特征? ...

如何正確使用 model 解釋器與看不見的數據?

[英]How to correctly use model explainer with unseen data?

我使用管道訓練了我的分類器: 訓練數據具有分類數據,因此轉換后的數據形狀為(x, 100 ) 。 之后,我嘗試解釋 model 對看不見的數據的預測。 由於我將單個未見過的示例直接傳遞給 model,因此它以形狀(x, 15)對其進行了預處理(因為單個觀察沒有所有示例都包含所有分類數據)。 我得到 ...

eli5 show_prediction 僅顯示特征權重而不顯示示例預測

[英]eli5 show_prediction shows only feature weights and not example prediction

當我使用 eli5 顯示預測功能時,我只看到特征權重而不是顏色突出顯示的示例。 我有以下 sklearn 管道 我使用 eli5 如下 但我只看到這樣的特征權重: 我想看到的是像這樣突出顯示的文本: 我怎樣才能做到這一點? ...

如何通過特征重要性來解釋文本聚類結果? (DBSCAN)

[英]How to explain text clustering result by feature importance? (DBSCAN)

有類似的問題和庫,如ELI5和LIME 。 但是我找不到解決我的問題的方法。 我有一組文檔,我正在嘗試使用 scikit-learn 的DBSCAN對它們進行聚類。 首先,我使用TfidfVectorizer對文檔進行矢量化。 然后,我簡單地對數據進行聚類並接收預測的標簽。 我的問題是:如何解釋集群 ...

使用 RFECV 和排列重要性的正確方法 - Sklearn

[英]Right way to use RFECV and Permutation Importance - Sklearn

在Sklearn #15075中提出了實現這一點的建議,但與此同時,建議使用eli5作為解決方案。 但是,我不確定我是否以正確的方式使用它。 這是我的代碼: 有幾個問題: 我不確定我是否以正確的方式使用交叉驗證。 PermutationImportance是使用cv來驗證驗證集的重要性,或者交叉 ...

XGboost 分類和 eli5 package 的問題

[英]Problem with XGboost Classification & eli5 package

在訓練 XGBoost 分類 model 時,我使用 eli5 function “explain_prediction()”來查看對個體預測的特征貢獻。 但是,eli5 package 似乎將我的 model 視為回歸器而不是分類器。 下面是一段代碼,顯示了我的 model、我的預測,然后是來自“ ...

eli5 permuter.feature_importances_ 返回全零

[英]eli5 permuter.feature_importances_ returning all zeros

我正在嘗試在一小部分數據樣本上獲取 RandomForestClassifier 的排列重要性,但是雖然我可以獲得簡單的特征重要性,但我的排列重要性會全部歸零。 這是代碼: 輸入1: 輸出1: 輸入2: 輸出2: (問題)輸入3: (問題)輸出3: 我希望在這里得到值,但我得到的是零 - 我做錯 ...

當轉換器包含嵌入式管道時如何從 ELI5 獲取功能名稱

[英]How to get feature names from ELI5 when transformer includes an embedded pipeline

ELI5庫提供了函數transform_feature_names來檢索sklearn轉換器輸出的特征名稱。 文檔說,當轉換器包含嵌套管道時,該函數開箱即用。 我正在嘗試使該函數在SO 57528350的答案中處理示例的簡化版本。 我的簡化示例不需要Pipeline ,但在現實生活中我需要它來 ...

關於 LSTM Keras 排列重要性的問題

[英]Question about Permutation Importance on LSTM Keras

我運行 LSTM 只是為了查看包含 400 多個特征的數據集的特征重要性。 我使用 Keras scikit-learn 包裝器來使用 eli5 的 PermutationImportance 函數。 但代碼正在返回 如果我使用model.fit()代碼運行順利,但無法調試排列重要性的錯誤。 ...

Eli5 有什么替代品嗎?

[英]Is there any alternative to Eli5?

我試圖通過使用 Eli5 計算排列重要性,但是命令 eli5.show_weights 不獲取任何圖像或任何東西。 (在python 2.7、3.7中嘗試過)你能幫忙嗎? 代碼如下: 代碼片段 ...

2020-03-08 14:33:50   1   163    eli5  
`eli5.show_weights` 顯示的標准偏差與 `feature_importances_std_` 中的值不一致

[英]`eli5.show_weights` displayed standard deviation does not agree with the values in `feature_importances_std_`

PermutationImportance對象有一些不錯的屬性,例如feature_importances_和feature_importances_std_ 。 為了以 HTML 樣式可視化此屬性,我使用了eli5.show_weights函數。 但是,我注意到顯示的標准偏差與feature_ ...

分類模型的 `eli5.show_weights` 究竟顯示什么?

[英]What exactly does `eli5.show_weights` display for a classification model?

我使用eli5來應用特征重要性的排列過程。 在文檔中,有一些解釋和一個小例子,但不清楚。 我正在使用sklearn SVC模型來解決分類問題。 我的問題是:當特定特征被改組時,這些權重是准確度的變化(減少/增加)還是這些特征的 SVC 權重? 在這篇中等文章中,作者指出,這些值表明該特征的重新 ...


 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM