首页 > 其他 > 详细

AdaBoost

时间:2020-07-25 20:27:31      阅读:61      评论:0      收藏:0      [点我收藏+]

一、简介

  提升算法(Boosting)是一种常用的统计学习方法。在解决分类或者回归问题当中,通过训练可以得到许多若模型,可以对这些若模型进行线性组合从而得到一个更可靠的模型,从而提升模型的准确率或者精度,这就是Boosting算法。

  对于弱分类器的产生以及强分类器的组合,AdaBoost的做法是:

  • 提高每一轮被上一个分类器分错样本的权值(被分错的样本会受到更大的关注),从而迭代产生弱分类器。
  • 加大误差小的弱分类器权值,使其在强分类器中有更大的决策作用。

 

二、AdaBoost算法

 

1、弱学习算法   

  (1)初始化训练数据的权值分布(对于$\omega$,左下标是第几轮的分类器,右下标)

$$D_{1}=(\omega_{11},...,\omega_{1i},...,\omega_{1N})$$

$$\omega_{1i}=\frac{1}{N}$$

   

AdaBoost

原文:https://www.cnblogs.com/ylxn/p/13375940.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!