首页 > 其他 > 详细

Boosting with Abstention

时间:2017-04-10 21:32:24      阅读:164      评论:0      收藏:0      [点我收藏+]

技术分享

 

论文提出了一种loss:

技术分享

x是原始数据,y是对应的label,h(x)是一个判别函数,r(x)相当于训练了一个信心函数,r(x)越大,代表对自己做的判断的信息越大,当r(x)<0的时候,就拒绝进行分类。那么这个loss函数分为前后两项,前面一项就是通常的分类错误的loss,后面一样是对不进行分类的惩罚,c(x)是进行惩罚的权重,作者设置为常数0.5。

 

作者指出,基于置信度的方法是这种方法的特例,也就是另r(x) = |h(x)|-gama。

 

 评价:这个方法就是对决策边界的点不进行分类,因为这些点可能很混杂,本来就不好分类,那么干脆给个0.5的分错概率,避免分界面的来回震荡。

 

技术分享

作者在论文中对他们的方法做了详细的证明,还没有看,待研究。

Boosting with Abstention

原文:http://www.cnblogs.com/huangshiyu13/p/6690788.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!