[英]What does the AdaBoost algorithm iterate over?
尽管我无法完全理解该算法的结构,但我还是试图以弱者作为决策树来实现AdaBoost算法。 我正在Wikipedia页面上了解算法-https: //en.m.wikipedia.org/wiki/AdaBoost由于算法是迭代的,因此我们从't in 1 ... T'进行迭代,但是这个T到底是什么? 是数据集中的样本总数,还是这是用于拆分决策树桩的可能特征的数量? 如果这是样本数,那么这是否意味着我们可能会在多个弱学习者中分裂同一特征? 还是对数据样本加权的方法阻止了这种情况的发生?
AdaBoost(和所有增强算法)迭代地训练许多弱模型(指定为参数),将其输出汇总以形成最终集合。
所以T
这里是个弱学习训练的次数。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.