首页 > 其他 > 详细

逻辑回归

时间:2014-01-16 20:45:27      阅读:527      评论:0      收藏:0      [点我收藏+]

y是连续的则是一个回归问题,y是离散的则是一个分类问题,这边就开始考虑y是离散的情况。

对于这样的问题很多,比如判断一个人是否生病,或者判断一个邮件是否是垃圾邮件。

回归时连续型的,一般不用在上述的分类问题中,因为其受噪音的影响比较大,如果要把一个回归方法用到分类上的话,那就是logistic回归。之所以叫其回归,因为其本质上还是线性回归,只是在特征到结果中加了一层函数映射。

对于这边也就是使用一个g(z)将连续的值映射到0跟1上面。

下面就是将线性bubuko.com,布布扣带入到g(z)中。

bubuko.com,布布扣

则可以得到:

bubuko.com,布布扣

对于我们考虑的问题是将连续的问题离散化,下面就带来两个问题,到底怎么做,还有就是为什么使用这个g(z)呢。至于为什么使用这个函数的时候作者后面讲到一般线性模型的时候说明,那下面就先看一看下面怎么做。

bubuko.com,布布扣

我们看这个g(z),我们会发现当bubuko.com,布布扣,g(z)趋向于1,bubuko.com,布布扣,g(z)趋向于0

这样我们就有bubuko.com,布布扣在0到1之间,下面我们就假设bubuko.com,布布扣为y取1时候的概率。我们假设该事件服从0,1分布,这边也可以是其他分布,不过有点复杂,则

bubuko.com,布布扣

也就是再x的条件下,y只能取0跟1,θ是参数。写成一般形式为

bubuko.com,布布扣

下面我们假设m的训练数据相互独立,则我们下面求最大似然估计,也就是求最能服从0,1分布的时候θ的值。(不知道这样理解对不对)

好,那下面求最大似然估计,对于m个训练值

bubuko.com,布布扣

bubuko.com,布布扣

那么,我们也就是要求这个的最大值,使用了梯度下降法。

下面跟之前一样,假设只有一个训练数据。

bubuko.com,布布扣

bubuko.com,布布扣

最终得到

bubuko.com,布布扣

下面如果我们是矩阵处理

则θ := θ +α*X转置*(y-h)

逻辑回归

原文:http://www.cnblogs.com/fengbing/p/3518684.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!