首页 > 编程语言 > 详细

Boosting算法的前世今生(中篇)

时间:2019-09-18 16:57:40      阅读:84      评论:0      收藏:0      [点我收藏+]

微信公众号:AIKaggle
欢迎建议和拍砖,若需要资源,请公众号留言;
如果你觉得AIKaggle对你有帮助,欢迎赞赏

本系列文章将会梳理Boosting算法的发展,从Boosting算法入手,介绍Adaboost,GBDT/GBRT算法,XGBoost算法,LightGBM算法,CATBoost算法,Thunder GBM算法等,介绍Boosting算法族的原理,框架,推导等,Boosting算法的前世今生(上篇)将介绍AdaBoost算法和梯度提升树算法,中篇(本文)将会详细介绍陈天奇教主提出的XGBoost算法,下篇将会介绍LightGBM算法,CATBoost算法,Thunder GBM算法等。XGBoost是在2014年由华盛顿大学的陈天奇(教主)提出的,对损失函数进行了二阶泰勒展开,在优化时用到了一阶导数和二阶导数,而且采用结构损失最小化的原则,在损失函数中引入了关于树模型复杂度的函数。如果对机器学习算法和实战案例感兴趣,也可关注公众号:AIKaggle获取算法动态

一个Snapshot

  • XGBoost是GDBT的一个变种,最大的区别是XGBoost通过对目标函数做二阶泰勒展开,从而求出下一步要拟合的树的叶子结点权重(需要先确定树的结构),从而根据损失函数求出每一次分裂结点的损失减小的大小,从而根据分裂损失选择合适的属性进行分裂。
  • 这个利用二阶展开得到的损失函数公式与分裂结点的过程是息息相关的。先遍历所有结点的所有属性进行分裂,假设选择了这个\(a\)属性的一个取值作为分裂结点,根据泰勒展开求得的公式可计算该树结构各个叶子结点的权重,从而计算损失减小的程度,从而综合各个属性选择使得损失减小最大的那个特征作为当前结点的分裂属性。依此类推,直到满足终止条件。

目标函数分析

初步认识目标函数

  • 目标函数:
    \[Obj^{(t)} = \sum_{i=1}^{n} l(y_i, \hat y_i^{(t-1)}+f_t(x_i))+\Omega(f_t)+constant\]
    其中,\(Obj\)代表第\(t\)步迭代的目标函数,\(\Omega(f_t)\)为正则项,包括\(L_1\)正则项,\(L_2\)正则项,\(constant\)为常数项。

用泰勒展开来近似我们原来的目标:

  • 泰勒展开:\[f(x+\Delta x)\simeq f(x)+f'(x)\Delta x + \frac{1}{2} f''(x)\Delta x^2\]

  • 定义:
    \[g_i = \partial_{\hat y^{(t-1)}}l(y_i, \hat y^{(t-1)})\]
    \[h_i = \partial^2_{\hat y^{(t-1)}}l(y_i, \hat y^{(t-1)})\]

  • 那么目标函数可以写为(公式1):

\[Obj^{(t)} \simeq \sum_{i=1}^{n}[l(y_i, \hat y_i^{(t-1)})+g_if_t(x_i)+\frac{1}{2}h_if^2_t(x_i)]+\Omega(f_t)+constant \]

  • 利用泰勒展开目标函数后,可以清晰地看到,最终的目标函数只依赖于每个数据点在误差函数上的一阶导数和二阶导数。暂且把这个目标函数放在这里,我们接下来短暂地研究一下树结构,以便弄清楚正则项\(\Omega(f_t)\)的表达式。

  • \(x = (x_1, x_2, ..., x_n)\in X\subset R^n\)为数据点,\(f\)为树结构的映射,它将数据点映射为一个数:
    \[f: X \rightarrow R\]

树的复杂度

  • 接下来定义树的复杂度。

  • 对于\(f\)的定义做一下细化,把树拆分成结构部分\(q\)和叶子权重部分\(w\)。下图是一个具体的例子,我会从下图开始,详细讲讲如何将映射\(f\)转化为一个由\(w\)\(q\)表示的映射。结构函数\(q\)把输入\(x\)映射到叶子的索引号上,而\(w\)给定了索引号对应的叶子结点的叶子分数。

技术分享图片

  • 举例说明一下,蓝色衣服的小男孩记为样本点\(x_1\),由于\(q\)是将数据点映射为叶子索引点号的函数,所以\(q(x_1)\)为1(对应着Leaf 1),\(w\)将索引号映射为索引号对应的叶子结点分数,所以\(w(1) = +2\),将这两步复合起来就是\(w(q(x)) = w(1) = 2\)

  • 定义这个复杂度还包含了一棵树里面结点的个数,以及每个叶子结点上面输出分数的\(L_2\)模平方。当然这不是唯一的一种定义方式,不过这一定义方式学习出的树效果一般都比较不错。下图还给出了复杂度计算的一个例子。
    技术分享图片

  • 说明一下上图,这棵树包含3个叶子结点,所以复杂度\(\Omega(f_t)\)的第一项\(\gamma T = 3\gamma\),第二项\(\frac{1}{2}\lambda\sum_{j=1}^{T}w_j^2 = \frac{1}{2} \lambda \times((+2)^2+(0.1)^2+(-1)^2) = \frac{1}{2}\lambda \times(4+0.01+1)\)

  • 将弄清楚的正则项代入到之前的公式1中,我们可以改写目标函数,以便目标函数和树结构的联系更为紧密。

改写目标函数

  • 忽略常数项,目标函数可以改写为:

\[Obj^{(t)}\simeq \sum_{i=1}^{n}[g_if_t(x_i)+\frac12h_if_t^2(x_i)]+\Omega(f_t)\]

  • 再将映射\(f\)\(w\)\(q\)表示:
    \[Obj^{(t)}= \sum_{i=1}^{n}[g_iw_{q(x_i)}+\frac12h_iw_{q(x_i)}^2]+\gamma T+\frac12\lambda\sum_{j=1}^{T}w_j^2\]
  • 引入每个叶子上面的样本点集合\(I\),比如上图的Leaf 3包含3个样本点,分别是穿围裙的妈妈,爷爷和奶奶,所以\(I_3\)就是包含3个样本点{穿围裙的妈妈,爷爷和奶奶}的集合。将样本点的求和指标换成叶子结点的求和指标:(此处也许需要较长时间理解,看不懂可以先跳过)
    \[Obj^{(t)}= \sum_{j=1}^{T}[(\sum_{i\in I_j}g_i)w_j+\frac12(\sum_{i\in I_j}h_i+\lambda)w_j^2]+\gamma T\]

  • 写成这一形式后,目标包含了\(T\)个相互独立的单变量二次函数,我们可以定义
    \[G_j = \sum_{i \in I_j}g_i, H_j = \sum_{i \in I_j} h_i\]

  • (类似于梯度和Hessian),最终公式可以化简为
    \[Obj^{(t)} = \sum_{j=1}^{T} [(\sum_{i\in I_j}g_i)w_j+\frac12(\sum_{i\in I_j}h_i+\lambda)w_j^2]+\gamma T\]

\[Obj^{(t)} = \sum_{j=1}^{T} [G_jw_j+\frac12(H_j+\lambda)w_j^2]+\gamma T\]

最(极)值求解

  • 为了求解目标函数的最值(极值),也就是对目标函数进行最小化(极小值),那么我们需要对目标函数关于\(w_j\)进行求导(导数为零是目标函数取极值的必要条件,如果目标函数是凸函数,那么导数为零是目标函数取极值的充要条件,比较边界情况可以确定出最值),可以得到:

\[w_j^* = -\frac{G_j}{H_j+\lambda}\]

  • 然后把\(w_j\)最优解代入得到:

\[Obj = -\frac12 \sum_{j=1}^{T}\frac{G_j^2}{H_j+\lambda}+\gamma T\]

收缩学习率和列采样

  • XGBoost除了使用正则项防止过拟合外,还使用了收缩和列抽样。收缩再次添加权重因子\(\eta\)到每一步树boosting的过程中,这个过程和随机优化中的学习速率相似,收缩减少每棵单独树的影响并且为将形成的树预留了空间(提高了模型的效果)。特征(列)抽样(在随机森林中使用)(相对于遍历每个特征,获取所有可能的Gain消耗大)找到近似最优的分割点,列抽样防止过拟合,并且可以加速并行化。

打分函数计算示例

  • \(Obj\)代表了当我们指定一个树的结构的时候,我们在目标上面最多减少多少,我们可以把它叫做结构分数(Structure Score)。
  • 下图描述了结构分数的计算方法:
    技术分享图片

  • 计算好结构分数之后,我们就可以去构造XGBoost算法中的单棵树了,接下来只需要说清楚我们是怎么分裂结点生成单棵树的,这是通过贪心法实现的。

枚举不同树结构的贪心法

贪心法

  • 每一次尝试去对已有的叶子加入一个分割:
    技术分享图片

  • 对于每次扩展,我们还是要枚举所有可能的分割方案,如何高效地枚举所有的分割呢?我假设我们要枚举所有\(x<a\)这样的条件,对于某一个特定的分割\(a\),我们要计算\(a\)左边的导数和右边的导数和。
    技术分享图片

  • 在构造树结构时,每一次尝试对已有的叶子结点加入一个分割,选择具有最佳增益的分割对结点进行分裂。对于一个具体的分割方案,我们可以获得的增益可以由如下公式计算:

\[Gain = Obj(I) - [Obj(I_L)+Obj(I_R)]\]

\[Gain = \frac12[\frac{(\sum_{i\in I_L}g_i)^2}{\sum_{i \in I_L} h_i+\lambda}+\frac{(\sum_{i\in I_R}g_i)^2}{\sum_{i \in I_R} h_i+\lambda} - \frac{(\sum_{i\in I}g_i)^2}{\sum_{i \in I} h_i+\lambda}]-\gamma\]

\[Gain = \frac12[\frac{G_L}{H_L+\lambda}+\frac{G_R}{H_R+\lambda} - \frac{G}{H+\lambda}]-\gamma\]

  • 其中\(I\)代表该结点下的所有样本集合(分割前),设\(I_L\)代表左子树,\(I_R\)代表右子树,也就有\(I = I_L \cup I_R\)

  • 我们可以发现对于所有的\(a\),我们只要做一遍从左到右的扫描就可以枚举出所有分割的梯度和\(G_L\)\(G_R\)。然后用上面的公式计算每个分割方案的分数就可以了。

  • 观察这个目标函数,大家会发现第二个值得注意的事情就是引入分割不一定会使得情况变好,因为我们有一个引入新叶子的惩罚项。优化这个目标对应了树的剪枝, 当引入的分割带来的增益小于一个阀值的时候,我们可以剪掉这个分割。大家可以发现,当我们正式地推导目标的时候,像计算分数和剪枝这样的策略都会自然地出现,而不再是一种因为heuristic(启发式)而进行的操作了。

端到端的模型评估

XGBoost的实现

  • XGBoost主要提供权重分类、排序目标函数,支持python、R、Julia,集成到了本地的数据管道如sklean。在分布式系统中,XGboost也支持Hadoop、MPI、Flink、spark

数据集

技术分享图片

分类

技术分享图片

排序

技术分享图片

Out-of-core

技术分享图片

分布式

技术分享图片
技术分享图片

点击阅读教主原文

Boosting算法的前世今生(中篇)

原文:https://www.cnblogs.com/AIKaggle/p/11543255.html

(1)
(1)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!