繁体   English   中英

AdaBoost算法会迭代什么?

[英]What does the AdaBoost algorithm iterate over?

尽管我无法完全理解该算法的结构,但我还是试图以弱者作为决策树来实现AdaBoost算法。 我正在Wikipedia页面上了解算法-https: //en.m.wikipedia.org/wiki/AdaBoost由于算法是迭代的,因此我们从't in 1 ... T'进行迭代,但是这个T到底是什么? 是数据集中的样本总数,还是这是用于拆分决策树桩的可能特征的数量? 如果这是样本数,那么这是否意味着我们可能会在多个弱学习者中分裂同一特征? 还是对数据样本加权的方法阻止了这种情况的发生?

AdaBoost(和所有增强算法)迭代地训练许多弱模型(指定为参数),将其输出汇总以形成最终集合。

所以T这里是个弱学习训练的次数。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM