这篇记录的内容来自于Andrew Ng教授在coursera网站上的授课。
1.多元线性回归(multivariate linear regression):
h函数:$h_{\theta}{(x)}=\theta_{0}+\sum_{i=1}^{n}{\theta_{i}x_{i}}$
为方便起见,每个样本的维度都设为n+1维,每一维都向后延一位,第一维是1。
则$$h_{\theta}{(x)}=\sum_{i=0}^{n}{\theta_{i}x_{i}}$$
$$h_{\theta}{(x)}={\theta}^{T}x$$
J函数为平方误差函数。
最小化$\frac{1}{2m}\sum_{i=1}^{m}{(h_{\theta}(x^{(i)}-y^{(i)})^2}$。
多元线性回归的梯度下降法:
$\theta_{i}:=\theta_{i}-\alpha\frac{1}{m}\sum_{j=1}^{m}{(h_{\theta}(x^{(j)}-y^{(j)})}x^{(j)}_{i}$
原文:https://www.cnblogs.com/GreenDuck/p/12310579.html