首页 > 其他 > 详细

1. Linear Model

时间:2017-02-11 15:46:41      阅读:219      评论:0      收藏:0      [点我收藏+]

1. 基本形式

给定由$d$个属性描述的示例 $\textbf{x} =(x_1;x_2;...,x_n)$,其中$x_i$是$x$在第$i$个属性上的取值,线性模型(linear model)试图学习一个通过属性的线性组合来进行预测的函数,即

          $f(\textbf{x}) = w_1x_1+w_2x_2 +...+w_nx_n + b$         (1)

向量形式则为

          $f(\textbf{x}) = \textbf{w}^T\textbf{x} + b$                    (2)

其中$\textbf{w} = (w_1;w_2;...;w_n)$. $w$和$b$学得之后,模型就可以确定。

 

2. 线性回归(linear regression)

我们将要用来描述回归问题的标记如下:
$m$ 代表训练集中实例的数量
$n$ 代表属性特征数量
$x$ 代表特征/输入变量
$y$ 代表目标变量/输出变量
$x^{(i)},y^{(i)}$  代表第 $i$ 个实例

线性回归试图学得

          $f(\textbf{x}) = \textbf{w}^T\textbf{x}+ b$, 使得 $f(\textbf{x}) ≈y$

这里为了计算方便,我们将$b$记为$w_0$, 则有:

          $f(\textbf{x}) = \textbf{w}^T\textbf{x} = w_0x_0+w_1x_1+...+w_nx_n$,  where $x_0=1$

均方误差是回归任务中常用的性能度量:
          $(\textbf{w}^*,b^*) = \arg\underset{\textbf{w},b}{\min}\sum_{i=1}^{m}[f(x^{(i)}) - y^{(i)}]^2$ 

求解$\textbf{w}$和$b$有以下两种方法。

梯度下降法:(需要选择学习率$\alpha$,需要多次迭代,适用各种类型)

代价函数:$J(\textbf{w}) = \frac{1}{2m}\sum_{i=1}^{m}[f(x^{(i)}) - y^{(i)}]^2  \ +\  \frac{\lambda}{2m}\sum_{j=1}^{n}w_j^2$ (后面是正则化项)

梯度下降:$w_j := w_j - \alpha\frac{\partial}{\partial{w_j}}J(\textbf{w})$

    repeat until convergence{

        $w_j := w_j - \alpha\frac{1}{m}[(f(x^{(i)}) - y^{(i)})x_j^{(i)}] \ - \ \alpha\frac{\lambda}{m}w_j$

    }

正规方程求解:(适用于特征数较少,$\textbf{x}^T\textbf{x}$必须可逆,只适用线性模型)

 $\textbf{w} = (\textbf{x}^T\textbf{x})^{-1}\textbf{x}^Ty$

1. Linear Model

原文:http://www.cnblogs.com/xuanyuyt/p/6389139.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!