在Adaboost算法中,最终的目的是构建弱分类器的线性组合:
从而得到最终分类器。
我们看看加法模型:
这是一个复杂的优化问题。
前向分布算法求解这一优化问题的思想:
因为学习的是加法模型,那如果能够从前向后,每一步只学习一个基函数及其系数,然后逐步逼近优化目标式(8.14)就可以简化优化的复杂度。具体每一步只需优化如下损失函数:
前向分步算法
原文:https://www.cnblogs.com/keye/p/13066905.html