簡體   English   中英

h2o GBM提前停止

[英]h2o GBM early stopping

我正在嘗試用h2o過度適合GBM(我知道這很奇怪,但是我需要指出這一點)。 因此,我增加了樹木的max_depth和收縮率,並禁用了停止標准:

overfit <- h2o.gbm(y=response
                  , training_frame = tapp.hex
                  , ntrees = 100 
                  , max_depth = 30 
                  , learn_rate = 0.1 
                  , distribution = "gaussian"
                  , stopping_rounds = 0
                  , distribution = "gaussian"
                  )

過度擬合的效果很好,但是我注意到在第64棵樹之后,訓練錯誤並沒有改善。 你知道為什么嗎 ? 如果我了解足夠好的加速的概念,則隨着樹的數量增加,訓練誤差應該收斂到0。

我的數據信息:大約100萬個觀測值10個變量響應變量是定量的。

祝你有美好的一天 !

如果0.1的學習率對您不起作用,我建議降低學習率,例如0.01或0.001。 盡管您指出訓練錯誤在樹64之后停止減少,但是我仍然建議嘗試添加更多樹,至少1000-5000,特別是如果您嘗試降低學習速度時。

您是否嘗試降低min_split_improvement參數? 1e-5的默認值已經很微小了,但是當有一百萬行時卻是相關的。 我猜第64棵樹(在您的示例中)將是無關緊要的?

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM