[英]Decision trees / stumps with Adaboost
我剛剛開始使用Adaboost學習決策樹,並正在OpenCV上進行嘗試並有一些疑問。
增強決策樹
我了解當我將Adaboost與決策樹配合使用時,我會不斷使決策樹適合培訓數據的加權版本。 分類以加權多數票進行
在使用Adaboost訓練決策樹時,我可以改用Bootstrapping嗎? 也就是說,在將分類器輸入Adaboost之前,我們選擇數據集的子集並在每個子集上訓練樹。
助推決策樹樁
我是否對決策樹樁使用相同的技術? 還是我可以創建等於要素數量的樹樁? 即,如果我有兩個具有10個功能的類,則在將分類器輸入Adaboost之前,我會為每個功能總共創建10個決策樹。
AdaBoost不僅在不同的子集中訓練分類器,而且還根據達到的組裝性能來調整數據集元素的權重。 詳細說明可以在這里找到。
是的,您可以使用相同的技術來訓練決策樹樁。 該算法大致如下:
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.