簡體   English   中英

AdaBoost算法會迭代什么?

[英]What does the AdaBoost algorithm iterate over?

盡管我無法完全理解該算法的結構,但我還是試圖以弱者作為決策樹來實現AdaBoost算法。 我正在Wikipedia頁面上了解算法-https: //en.m.wikipedia.org/wiki/AdaBoost由於算法是迭代的,因此我們從't in 1 ... T'進行迭代,但是這個T到底是什么? 是數據集中的樣本總數,還是這是用於拆分決策樹樁的可能特征的數量? 如果這是樣本數,那么這是否意味着我們可能會在多個弱學習者中分裂同一特征? 還是對數據樣本加權的方法阻止了這種情況的發生?

AdaBoost(和所有增強算法)迭代地訓練許多弱模型(指定為參數),將其輸出匯總以形成最終集合。

所以T這里是個弱學習訓練的次數。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM