XGBoost和GBDT、AdaBoost使用的最终模型形式相同,其中m为第m轮得到的弱模型:
$$y_{x}=\sum_{m}^{M}\hat{f}_{m}(x)$$
$$L^{(m)}=\sum_{i}^{N}l(y_{i},\hat{y}_{i}^{m-1}+\hat{f}_{m}(x_{i}))+\Omega$$
3 对目标函数进行二阶泰勒展开
XGBoost
原文:https://www.cnblogs.com/ylxn/p/13382772.html