首页 > 其他 > 详细

吴恩达机器学习私人总结(1)

时间:2019-05-02 12:55:44      阅读:93      评论:0      收藏:0      [点我收藏+]

监督学习的回归问题上做了介绍,讲解的是房价问题:

采用的代价函数为全局的误差计算,并将计算的参数结果同时更新,为批梯度下降法。

技术分享图片

批梯度下降法在多个参数时的运算过程:

技术分享图片

有时候,为了让数据的影响程度,或者说是具有一致性,需要数据预处理,集中在均值0附件即可

 技术分享图片

在学习率问题上,采用倍数为3从0.001处开始进行的尝试,是一种确定最佳学习率的方案。学习率过小只是需要更多的迭代次数,而过大则会导致误差变大然后失去学习能力,反复变化学习误差等。

 技术分享图片

有些输入数据与输出数据在进行映射时,应该考虑数据的联合意义如:房价和房宽与房长:

技术分享图片

在有些数据映射时,如果在数据点图中,已经呈现出了一定的关系,可以使用同一变量的高次函数进行拟合,并通过事先的考虑,该高次函数能否正确映射到图中:

 技术分享图片

对于输入X特征,输出Y的实际结果,对应的系数A可以直接求解而不用梯度下降:(都是矩阵向量)

技术分享图片

在m训练样本,n特征的回归问题上,梯度下降和使用矩阵运算直接求最终值时,各有优缺点。特征数量n小于1万,还是建议直接用正常的矩阵运算,虽然复杂度为n3:

技术分享图片

有时候(很少)不能进行矩阵逆运算的问题:特征之间有联系,多余的特征,或者样本数量很少但是特征却很多很多:

技术分享图片

 

吴恩达机器学习私人总结(1)

原文:https://www.cnblogs.com/bai2018/p/10801965.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!