首页 > 其他 > 详细

随机森林和GBDT

时间:2020-05-20 23:36:39      阅读:90      评论:0      收藏:0      [点我收藏+]

1.简介

随机森林和GBDT都属于集成学习。

集成学习可分为两大类:bagging和boosting;

随机森林(RF) ∈ bagging

GBDT ∈ boosting

 

2.随机森林:由多个决策树组成的一个集成学习算法,可用于分类和回归(分类效果好于回归),最终结果采用投票制得出。

数据集处理:

·  随机森林的“随机”体现在两个方面:①样本选择随机;②特征选择随机;

·  常采用交叉验证法进行数据集划分;

优点:可解决单个决策树的泛化能力差问题。

扩展:加权随机森林【给小类以大权重,给大类以小权重】

 

3.GBDT:梯度提升决策树

http://blog.csdn.net/puqutogether/article/details/41957089

http://www.cnblogs.com/pinard/p/6140514.html

 

4.RF和GBDT两种算法优缺点

https://www.cnblogs.com/hbwxcw/p/7163704.html

 

参考资料:

1.权重处理:https://wenku.baidu.com/view/07ba98cca0c7aa00b52acfc789eb172ded639998.html

2.sklearn随机森林特征筛选:https://www.cnblogs.com/xiaochouk/p/8583255.html,作者:小丑_jk

3.matlab随机森林组合分类器:https://www.cnblogs.com/zhouerba/p/8032604.html,作者:zhouerba

 

随机森林和GBDT

原文:https://www.cnblogs.com/feynmania/p/12927075.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!