首页 > 其他 > 详细

机器学习笔记(三)逻辑回归

时间:2019-10-12 22:12:51      阅读:91      评论:0      收藏:0      [点我收藏+]

Classification(分类)

1、问题背景:

特殊的样本点会使得分界点发生漂移,影响准确性。

技术分享图片

 

Hypothesis representation(假设函数表达式)

1、Logistic regression Model(逻辑回归模型):

(1)Sigmoid function / Logistic function S型函数/逻辑函数:

技术分享图片

 (2)g(z)图像:

技术分享图片

 

(3)hθ(x) 表示在给定参数θ对于某个特征值x的情况下,y=1的概率:

技术分享图片

 

Decision boundary(决策边界)

1、什么是决策边界?

If hθ(x) = g(θTx) ≥ 0.5,则 y = 1 (即 θTx ≥ 0时);

If hθ(x) = g(θTx)< 0.5,则 y = 0(即 θTx< 0时).

举例:对于技术分享图片,θ=[-3,1,1]T,则

y=1,if -3+x1+x2 ≥ 0,即分界线为 x1+x= 3,如下图所示。

 技术分享图片

 该边界线称为“决策边界”,边界上方部分y=1,下方部分y=0.

 

2、Non-linear decision boundaries(非线性决策边界):

例如:

技术分享图片

对于θ = [-1,0,0,1,1]T时,决策边界为x1² + x2² = 1,如下图所示。

 技术分享图片

Cost function(代价函数)

 1、数据量化:

训练集:技术分享图片

m个训练样本(每个样本含有n个特征值):技术分享图片

假设函数:技术分享图片

 

2、Logistic regression cost function(逻辑回归代价函数):

技术分享图片

 技术分享图片

 技术分享图片  技术分享图片

 【理解】

当y = 1时,真实值为1,当预测值越靠近1,则代价越小;

当y = 0时,真实值为0,当预测值越靠近0,则代价越小。

 

3、Simplified cost function(简化代价函数):技术分享图片

技术分享图片

 

Gradient Descent(梯度下降法)

1、算法流程:

技术分享图片

 即:

技术分享图片

【推导】碰巧跟线性回归的算法一致?

为了推导的方便,对于公式进行了适当简写:

技术分享图片

 向量化表示:

技术分享图片

 

机器学习笔记(三)逻辑回归

原文:https://www.cnblogs.com/orangecyh/p/11662022.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!