首页 > 其他 > 详细

CS 229 notes Supervised Learning

时间:2017-11-22 23:10:42      阅读:255      评论:0      收藏:0      [点我收藏+]

CS 229 notes Supervised Learning

标签(空格分隔): 监督学习 线性代数


Forword

the proof of Normal equation and, before that, some linear algebra equations, which will be used in the proof.

The normal equation

Linear algebra preparation

For two matrices 技术分享图片 and 技术分享图片 such that 技术分享图片 is square, 技术分享图片.

Proof:

 技术分享图片

技术分享图片

 

Some properties:
技术分享图片

 

some facts of matrix derivative:
技术分享图片

Proof:

 技术分享图片

技术分享图片
技术分享图片

Proof 1:

技术分享图片

 

Proof 2:

技术分享图片

 

技术分享图片

Proof: 技术分享图片
(技术分享图片 refers to the cofactor)

Least squares revisited

技术分享图片(if we don’t include the intercept term)

技术分享图片

since 技术分享图片,

技术分享图片

Thus,
$\frac{1}{2}(X\theta-\vec{y})^T(X\theta-\vec{y}) =
\frac{1}{2}\displaystyle{\sum{i=1}^{m}(h\theta(x^{(i)}) -y^{(i)})^2} = J(\theta) $.

Combine Equations 技术分享图片
技术分享图片

Hence

技术分享图片

Notice it is a real number, or you can see it as a 技术分享图片 matrix, so
技术分享图片

 


since 技术分享图片 and 技术分享图片 involves no 技术分享图片 elements.
then use equation 技术分享图片 with 技术分享图片

技术分享图片

 


To minmize 技术分享图片, we set its derivative to zero, and obtain the normal equation:
技术分享图片
技术分享图片

?

CS 229 notes Supervised Learning

原文:http://www.cnblogs.com/EtoDemerzel/p/7881434.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!