首页 > 其他 > 详细

通俗理解GBDT和XGBoost (从决策树Decision Tree开始,Step-by-Step手把手)

时间:2020-04-05 09:58:18      阅读:149      评论:0      收藏:0      [点我收藏+]

开头语:这一系列的笔记仍然致力于简洁 + 尽量能说清楚怎么回事。为了理解GBDT和XGBoost,从最基础的决策树开始,一步一步,手把手深入到GBDT和XGBoost。

一段发自肺腑感谢的话:非常感谢Youtube上“StatQuest with Josh Starmer”公众号,发布了很多通俗易懂的视频(从决策树一直到XGBoost也在其中)。这一系列的笔记也是很大程度的上基于他的讲解和列举的例子。

一个小公告:可以关注微信公众号啦,第一时间收到更新:)。

技术分享图片

文章路线目录(有链接可点的情况下,说明已经更新了;其他标题如果还是纯文字状态,说明还没写完:-):

  • Decision Trees 决策树

    • Main Idea (给了什么是决策树的例子;以及当有了自己的数据集时,怎么样从0开始逐渐构建一个决策树;2020/04/04)

    • What If We Have Numeric Data?

    • Ranked Data

    • Multiple Choice Data

    • Feature Selection and Missing Data

    • Regression Trees

    • Prune Regression Trees

  • Random Forests

    • Building

    • Using

    • Evaluating

    • Missing Data and Clustering

  • AdaBoost

  • Gradient Boost

    • Regression Main Ideas

    • Regression Details

    • Classification

    • Classification Details

  • XGBoost

    • XGBoost Trees for Regression

    • XGBoost Trees for Classification

    • Mathematical Details

    • Optimisation

结束语:当每完成几篇后,所有内容会整合到一个单独的大网页,阅读会更流畅,也更方便搜索关键字。

 

(希望大家特殊期间,身体健康!)

通俗理解GBDT和XGBoost (从决策树Decision Tree开始,Step-by-Step手把手)

原文:https://www.cnblogs.com/createMoMo/p/12635709.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!