首页 > 其他 > 详细

Logistic Regression

时间:2017-04-22 00:27:42      阅读:209      评论:0      收藏:0      [点我收藏+]

使hypotheses hθ(x) to satisfy 0hθ(x)1.

技术分享

 技术分享

z > 0,g(z) > 0.5 ,y=1;

z< 0,g(z) < 0.5 ,y=0;

Cost Function:

技术分享

When y = 1, we get the following plot for J(θ) vs hθ(x):

技术分享

 

Similarly, when y = 0, we get the following plot for J(θ) vs hθ(x):

技术分享

Cost(hθ(x),y) = 0 if hθ(x) = y;

Cost(hθ(x),y) ->∞ if y = 0 and hθ(x) ->1 或


者y



= 1 and hθ(x) ->0.

Simplified Cost Function:

 Cost(hθ(x),y)=?ylog(hθ(x))?(1?y)log(1?hθ(x))
y = 1 时,Cost(hθ(x),y) = ?log(hθ(x));

y = 0时, Cost(hθ(x),y) = -log(1?hθ(x))

Gradient Descent

技术分享

技术分享

向量化:θ:=θ?(α/m) XT(g(Xθ)?y)

Logistic Regression

原文:http://www.cnblogs.com/lxc1910/p/6745156.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!