假设所有属性相互独立
\[
h_{n b}(\boldsymbol{x})=\underset{c \in \mathcal{Y}}{\arg \max } P(c) \prod_{i=1}^{d} P\left(x_{i} | c\right)\tag{10.1}
\]
\(P(c)=\frac{|D_c|}{|D|}\),\(P(x_i|c)=\frac{|D_{c,x_i}|}{|D_c|}\)
若某个属性值在训练集中没有与某个类同时出现过,为防止连乘式计算出的概率值为零,令\(P(c)=\frac{|D_c|+1}{|D|+N}\),\(P(x_i|c)=\frac{|D_{c,x_i}|+1}{|D_c|+N_i}\)
N表示训练集D种可能的类别数,\(N_i\)表示第i个属性可能的取值数
属性条件独立性假设很难成立,因此放松该条件,假设每个属性在类别之外最多依赖于一个其他属性
可任意表示属性间的依赖性
通过将多个学习器进行结合,常可获得比单一学习器显著优越的泛化性能
集成学习即研究如何产生并结合好而不同的个体学习器,目前可分为两大类:个体学习器间存在强依赖关系、必须串行生成的序列化方法,代表算法为Boosting;个体学习器间不存在强依赖关系,可同时生成的并行化方法,代表算法为Bagging和随机森林
先从初始训练集训练出一个基学习器,再根据基学习器的表现对训练样本分布进行调整,使得先前基学习器做错的训练样本在后续受到更多关注,然后基于调整后的样本分布来训练下一个基学习器;如此重复进行,直至基学习器数目达到事先指定的值T,最终将这T个基学习器进行加权结合
Boosting主要关注降低偏差
Boosting族算法最著名的代表是AdaBoost
基于自助采样法,采样出T个含m个样本的训练集,T个训练集可认为有较大差异,并且用到63.2%的样本数据。然后针对每个训练集训练出一个基学习器,可认为T个基学习器有较大差异。再将这些基学习器结合
Bagging主要关注降低方差
随机森林是Bagging的一个扩展变体,在以决策树为基学习器构建Bagging集成的基础上,进一步在决策树的训练过程中引入随机属性选择
简单平均法
\[
H(x)=\frac{1}{T}\sum^{T}_{i=1}h_i(x)\tag{11.1}
\]
个体学习器性能相近时使用
加权平均法
\[
H(x)=\sum^{T}_{i=1}w_ih_i(x)\tag{11.2}
\]
个体学习器性能相差较大时使用,通常要求\(w_i\ge0\),\(\sum^{T}_{i=1}w_i=1\)
绝对多数投票法
即若某标记得票过半数,则预测为该标记;否则拒绝预测
相对多数投票法
即预测为得票最多的标记,若同时有多个标记获得最高票,则从中随机选取一个
加权投票法
通常要求\(w_i\ge0\),\(\sum^{T}_{i=1}w_i=1\)
Stacking是学习法的典型代表
个体学习器称为初级学习器,用于结合的学习器称为次级学习器或元学习器
将同质或异质的初级学习器的输出作为次级学习器的训练集。
应用k折交叉验证法,用部分样本训练初级学习器,然后用未使用过的样本作为初级学习器的输入,其输出作为次级学习器的样本
吴恩达机器学习入门笔记10/11-贝叶斯分类器/集成学习(西瓜书补充)
原文:https://www.cnblogs.com/jestland/p/11548531.html