1.来源
本质上 GBDT+LR 是一种具有 stacking 思想的二分类器模型,所以可以用来解决二分类问题。这个方法出自于 Facebook 2014 年的论文 Practical Lessons from Predicting Clicks on Ads at Facebook 。
2.使用场景
GBDT+LR 使用最广泛的场景是 CTR 点击率预估,即预测当给用户推送的广告会不会被用户点击。点击率预估模型涉及的训练样本一般是上亿级别,样本量大,模型常采用速度较快的 LR。但 LR 是线性模型,学习能力有限,此时特征工程尤其重要。现有的特征工程实验,主要集中在寻找到有区分度的特征、特征组合,折腾一圈未必会带来效果提升。GBDT 算法的特点正好可以用来发掘有区分度的特征、特征组合,减少特征工程中人力成本。
3.CTR的流程
主要包括两大部分:离线部分、在线部分,其中离线部分目标主要是训练出可用模型,而在线部分则考虑模型上线后,性能可能随时间而出现下降,若出现这种情况,可选择使用 Online-Learning 来在线更新模型:
3.1离线部分
3.2 在线部分
4. GBDT + LR 的结构
正如它的名字一样,GBDT+LR 由两部分组成,其中 GBDT 用来对训练集提取特征作为新的训练输入数据,LR 作为新训练输入数据的分类器。具体来讲,有以下几个步骤:
举个例子,下图是一个 GBDT+LR 模型结构,设 GBDT 有两个弱分类器,分别以蓝色和红色部分表示,其中蓝色弱分类器的叶子结点个数为 3,红色弱分类器的叶子结点个数为 2,并且蓝色弱分类器中对 0-1 的预测结果落到了第二个叶子结点上,红色弱分类器中对 0-1 的预测结果也落到了第二个叶子结点上。那么我们就记蓝色弱分类器的预测结果为[0 1 0],红色弱分类器的预测结果为[0 1],综合起来看,GBDT 的输出为这些弱分类器的组合[0 1 0 0 1] ,或者一个稀疏向量(数组)。
这里的思想与 One-hot 独热编码类似,事实上,在用 GBDT 构造新的训练数据时,采用的也正是 One-hot 方法。并且由于每一弱分类器有且只有一个叶子节点输出预测结果,所以在一个具有 n 个弱分类器、共计 m 个叶子结点的 GBDT 中,每一条训练数据都会被转换为 1*m 维稀疏向量,且有 n 个元素为 1,其余 m-n 个元素全为 0。
5. RF + LR ? Xgb + LR?
有心的同学应该会思考一个问题,既然 GBDT 可以做新训练样本的构造,那么其它基于树的模型,例如 Random Forest 以及 Xgboost 等是并不是也可以按类似的方式来构造新的训练样本呢?没错,所有这些基于树的模型都可以和 Logistic Regression 分类器组合。至于效果孰优孰劣,我个人觉得效果都还可以,但是之间没有可比性,因为超参数的不同会对模型评估产生较大的影响。下图是 RF+LR、GBT+LR、Xgb、LR、Xgb+LR 模型效果对比图,然而这只能做个参考,因为模型超参数的值的选择这一前提条件都各不相同。顺便来讲,RF 也是多棵树,但从效果上有实践证明不如 GBDT。且 GBDT 前面的树,特征分裂主要体现对多数样本有区分度的特征;后面的树,主要体现的是经过前 N 颗树,残差仍然较大的少数样本。优先选用在整体上有区分度的特征,再选用针对少数样本有区分度的特征,思路更加合理,这应该也是用 GBDT 的原因。
5. GBDT + LR 代码分析
在网上找到了两个版本的 GBDT+LR 的代码实现,通过阅读分析,认为里面有一些细节还是值得好好学习一番的,所以接下来这一小节会针对代码实现部分做一些总结。目前了解到的 GBDT 的实现方式有两种:
接下里分别对这两种实现方式进行分析。
5.1 Scikit-learn 的实现:
from sklearn.preprocessing import OneHotEncoder from sklearn.ensemble import GradientBoostingClassifier gbm1 = GradientBoostingClassifier(n_estimators=50, random_state=10, subsample=0.6, max_depth=7, min_samples_split=900) gbm1.fit(X_train, Y_train) train_new_feature = gbm1.apply(X_train) train_new_feature = train_new_feature.reshape(-1, 50) enc = OneHotEncoder() enc.fit(train_new_feature) # # 每一个属性的最大取值数目 # print(‘每一个特征的最大取值数目:‘, enc.n_values_) # print(‘所有特征的取值数目总和:‘, enc.n_values_.sum()) train_new_feature2 = np.array(enc.transform(train_new_feature).toarray())
划重点:
5.1.1 model.apply(X_train)的用法
model.apply(X_train)返回训练数据 X_train 在训练好的模型里每棵树中所处的叶子节点的位置(索引)
5.1.2 sklearn.preprocessing 中 OneHotEncoder 的使用
除了 pandas 中的 get_dummies(),sklearn 也提供了一种对 Dataframe 做 One-hot 的方法。OneHotEncoder() 首先 fit() 过待转换的数据后,再次 transform() 待转换的数据,就可实现对这些数据的所有特征进行 One-hot 操作。由于 transform() 后的数据格式不能直接使用,所以最后需要使用.toarray() 将其转换为我们能够使用的数组结构。
enc.transform(train_new_feature).toarray()
5.1.3 sklearn 中的 GBDT 能够设置树的个数,每棵树最大叶子节点个数等超参数,但不能指定每颗树的叶子节点数。
5.2 lightgbm 的实现
params = { ‘task‘: ‘train‘, ‘boosting_type‘: ‘gbdt‘, ‘objective‘: ‘binary‘, ‘metric‘: {‘binary_logloss‘}, ‘num_leaves‘: 64, ‘num_trees‘: 100, ‘learning_rate‘: 0.01, ‘feature_fraction‘: 0.9, ‘bagging_fraction‘: 0.8, ‘bagging_freq‘: 5, ‘verbose‘: 0 } # number of leaves,will be used in feature transformation num_leaf = 64 print(‘Start training...‘) # train gbm = lgb.train(params=params, train_set=lgb_train, valid_sets=lgb_train, ) print(‘Start predicting...‘) # y_pred 分别落在 100 棵树上的哪个节点上 y_pred = gbm.predict(x_train, pred_leaf=True) y_pred_prob = gbm.predict(x_train) result = [] threshold = 0.5 for pred in y_pred_prob: result.append(1 if pred > threshold else 0) print(‘result:‘, result) print(‘Writing transformed training data‘) transformed_training_matrix = np.zeros([len(y_pred), len(y_pred[1]) _ num_leaf], dtype=np.int64) # N _ num_tress _ num_leafs for i in range(0, len(y_pred)): # temp 表示在每棵树上预测的值所在节点的序号(0,64,128,...,6436 为 100 棵树的序号,中间的值为对应树的节点序号) temp = np.arange(len(y_pred[0])) _ num_leaf + np.array(y_pred[i]) # 构造 one-hot 训练数据集 transformed_training_matrix[i][temp] += 1 y_pred = gbm.predict(x_test, pred_leaf=True) print(‘Writing transformed testing data‘) transformed_testing_matrix = np.zeros([len(y_pred), len(y_pred[1]) _ num_leaf], dtype=np.int64) for i in range(0, len(y_pred)): temp = np.arange(len(y_pred[0])) _ num_leaf + np.array(y_pred[i]) # 构造 one-hot 测试数据集 transformed_testing_matrix[i][temp] += 1
划重点:
5.2.1 params 字典里超参数的设置
因为是二分类问题,所以设置 {‘boosting_type‘: ‘gbdt‘,‘objective‘: ‘binary‘,‘metric‘: {‘binary_logloss‘}},然后设置树的个数及每棵树的叶子结点个数{‘num_leaves‘: 64,‘num_trees‘: 100}
5.2.2 model.predict(x_train, pred_leaf=True)
使用
model.predict(x_train, pred_leaf=True)
返回训练数据在训练好的模型里预测结果所在的每棵树中叶子节点的位置(索引),形式为 7999*100 的二维数组。
5.2.3 构造 Ont-hot 数组作为新的训练数据
这里并没有使用 sklearn 中的 OneHotEncoder(),也没有使用 pandas 中的 get_dummies(),而是手工创建一个 One-hot 数组。(当然也可以像 5.1.2 那样操作)
temp = np.arange(len(y_pred[0])) \* num_leaf + np.array(y_pred[i])
5.2.4 对二维数组填充信息,采用"+=" 的方法
# 构造 one-hot 训练数据集 transformed_training_matrix[i][temp] += 1
6. GBDT + LR 模型提升
现在,我们思考这样一个问题,Logistic Regression 是一个线性分类器,也就是说会忽略掉特征与特征之间的关联信息,那么是否可以采用构建新的交叉特征这一特征组合方式从而提高模型的效果?
其次,我们已经在 4 小节中了解到 GBDT 很有可能构造出的新训练数据是高维的稀疏矩阵,而 Logistic Regression 使用高维稀疏矩阵进行训练,会直接导致计算量过大,特征权值更新缓慢的问题。
针对上面可能出现的问题,了解下FM 算法解析及 Python 实现 ,使用 FM 算法代替 LR,这样就解决了 Logistic Regression 的模型表达效果及高维稀疏矩阵的训练开销较大的问题。然而,这样就意味着可以高枕无忧了吗?当然不是,因为采用 FM 对本来已经是高维稀疏矩阵做完特征交叉后,新的特征维度会更加多,并且由于元素非 0 即 1,新的特征数据可能也会更加稀疏,那么怎么办?
所以,我们需要再次回到 GBDT 构造新训练数据这里。当 GBDT 构造完新的训练样本后,我们要做的是对每一个特征做与输出之间的特征重要度评估并筛选出重要程度较高的部分特征,这样,GBDT 构造的高维的稀疏矩阵就会减少一部分特征,也就是说得到的稀疏矩阵不再那么高维了。之后,对这些筛选后得到的重要度较高的特征再做 FM 算法构造交叉项,进而引入非线性特征,继而完成最终分类器的训练数据的构造及模型的训练。
原文:https://www.cnblogs.com/tianqizhi/p/12012677.html