cost 85 ms
NLP neural.net 驗證准確性在交叉驗證中的折疊之間增加太多(?)

[英]NLP neural net validation accuracy increases too much (?) between folds in cross validation

我正在使用 BERT 訓練 model 以使用兩個標簽進行分類。 我想使用交叉驗證,因為我想對數據集中的每個觀察結果進行樣本外預測,以便稍后在線性回歸中使用。 我有 5 個 EPOCHS。 第一次折疊的行為符合預期:驗證准確度在 EPOCHS 中增加,並收斂到我在使用通常的 80-10-10 分割 ...

在 mlr3 中逐月滾動 CV

[英]Month by month rolling CV in mlr3

我的目標是使用使用某種滾動 CV 的mlr3 package 創建重采樣。 更具體地說,我想在訓練集中使用 n 個月的數據(比如 6 個月),在測試集中使用一個月的數據。 這是我的數據集的示例: 現在,我想在訓練集中使用 20141 和 20142 月份,在測試集中使用 20143 月份。 我認為 ...

為什么來自 cross_val_score 的 ROC_AUC 比手動使用帶有 metrics.roc_auc_score 的 StratfiedKFold 用於 XGB 分類器高得多?

[英]Why is the ROC_AUC from cross_val_score so much higher than manually using a StratfiedKFold with metrics.roc_auc_score for an XGB classifier?

方法 1 - StratifiedKFold 交叉驗證 方法 2 CrossValScore 我可能誤解了 cross_val_score 的功能,但根據我的理解,它創建了 K 倍的訓練和測試數據。 然后它在 K-1 折上訓練 model,並在 1 折上重復測試。 它的准確度應該與使用 Strat ...

無法讓 LogisticRegressionCV 收斂任何其他 Cs 然后 1

[英]Can't get LogisticRegressionCV to converge for any other Cs then 1

我正在嘗試使用一系列超參數值構建邏輯回歸 model,例如: lambdas = [0.001, 0.01, 0.05, 0.1, 1., 100.] 但是,除非我有 Cs = 1,否則 model 不會收斂。這是我的代碼: 有誰知道如何解決這個問題? 我嘗試更改求解器,增加 max_iter, ...

AttributeError: 'Adam' object 沒有屬性 'build'

[英]AttributeError: 'Adam' object has no attribute 'build'

創建分類 model 后,我需要使用 k-Cross Fold 驗證,但我不斷收到此錯誤:AttributeError: 'Adam' object 沒有屬性 'build'。 我該如何解決這個問題? 您可以在下面找到完整的錯誤: 該程序似乎正在嘗試使用“copy.deepcopy”創建 Kera ...

`fabletools::autoplot()` 中的錯誤:! 提供的數據包含與預測不同的關鍵結構

[英]Error in `fabletools::autoplot()`: ! Provided data contains a different key structure to the forecasts

我剛剛開始研究交叉驗證預測。 我似乎無法正確使用 autoplot() 。 我試圖只預測過去 4 年的數據,並在整個數據集中預測 plot。 當我不指定 autoplot() 時,它是 plot 下圖。 我試過 filter_index(. ~ "2014"), filter(Country=="U ...

RecursiveFeatureAddition 中的自定義 CV,列表索引超出范圍

[英]Custom CV in RecursiveFeatureAddition, list index out of range

我遇到以下問題“列表索引超出范圍” 這是我的代碼: folds 變量是通過這個拆分獲得的: 我敢肯定,存儲在 zip object 中的索引對於 X_train 是正確的,我的意思是在折疊中沒有索引是 X_train 的形狀(最后一個索引是 4535 和 X_train. shape[0] 是 4 ...

為什么在 XGBClassifier 的 cross_validate 中不使用 eval_set?

[英]Why eval_set is not used in cross_validate with XGBClassifier?

我正在嘗試 plot 一張圖表,其中我可以看到 model 隨着估計量的增加而學習的演變。 我可以使用eval_set中的xgboost.XGBClassifier來做到這一點,給出這個 plot: 但是當我使用cross_validate()時,它會忽略eval_set參數。 為什么? 代碼: ...

訓練、驗證和測試集的交叉驗證

[英]Cross Validation on Train, Validation & Test Set

在擁有三套的場景下例如80%的train集(用於model訓練) 例如 10% 的validation集(用於 model 訓練) 例如 10% 的test集(用於最終 model 測試) 假設我對[1,2,3,4,5,6,7,8,9,10]的示例數據集執行 k 折交叉驗證(CV)。 也說一下 10 ...

我無法使用 keras.wrappers.scikit_learn.KerasRegressor 執行 cross_val_score

[英]I can't execute cross_val_score with keras.wrappers.scikit_learn.KerasRegressor

當我正常運行附加代碼時它應該可以工作但由於某種原因它顯示此錯誤: :14: DeprecationWarning: KerasRegressor 已棄用,請改用 Sci-Keras ( https://github.com/adriangb/scikeras )。 有關遷移的幫助,請參閱http ...

多會話(未來)和寓言

[英]Multisession (future) and fable

我正在嘗試使用fable package 中的ARIMA function。我想使用交叉驗證來測試pdqPDQ data.frame 行給出的每個規范,使用來自future package 的多會話計划。然后我將制作預測,然后計算准確性措施。 ARIMA function 看不到pdqPDQ ob ...

Python-Classifier-Xgboost - 在 GridSearchCV 中顯示帶有參數、持續時間、分數的 cv

[英]Python-Classifier-Xgboost - show cv with params, duration time, score in GridSearchCV

我在xgboost中顯示有關交叉驗證的信息時遇到問題。 在 scikit-learn 中:當我使用 GridSearchCV 時,我有 output 警告,如: 所以...我有 params + score + time + CV(數字部分)。 現在,當我在xgboost和verbose=3中嘗試 ...

使用 k 折交叉驗證構建神經網絡

[英]Building neural network using k-fold cross validation

我是深度學習的新手,嘗試使用 4 折交叉驗證來實現 neural.network 進行訓練、測試和驗證。 主題是使用現有數據集對車輛進行分類。 准確度結果為 0.7。 訓練精度紀元的一個例子 output 我也不知道代碼是否正確以及如何提高准確性。 這是代碼: ...

如何在 weka 中做這些:交叉驗證+不平衡數據+特征選擇

[英]How to do these in weka: cross validation + imbalanced data + feature selection

我有一個不平衡的數據集(分類數據集)。 預處理后:特征個數77個,實例個數1425個(多數類=1196(83.93%),少數類=229(16.07%))。 我想使用 Weka 平台應用這些技術: 拆分數據集(使用 10 折交叉驗證)。 然后,平衡訓練集(我不知道合適的技術是什么。但假設我將使用 SM ...

拆分測試和訓練數據集的交叉驗證

[英]cross validation for split test and train datasets

與標准數據不同,我將數據集單獨包含為 train、test1 和 test2。 我實施了 ML 算法並獲得了性能指標。 但是當我應用交叉驗證時,它變得復雜了..可能有人幫助我..謝謝.. 這是我的代碼.. 例如,KNN 分類器。 對於 K 折。 ...

套索回歸

[英]Lasso Regression

對於固定值為 λ 的套索(帶 L1 正則化的線性回歸),需要使用交叉驗證來選擇最佳優化算法。 我知道我們可以使用交叉驗證來找到 λ 的最佳值,但是如果 λ 是固定的,是否有必要使用交叉驗證? 有什么想法嗎? ...


 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM