首页 > 系统服务 > 详细

Coursera Machine Learning 学习笔记(十)

时间:2015-03-16 12:54:16      阅读:381      评论:0      收藏:0      [点我收藏+]

- Learning rate

       在梯度下降算法中,算法收敛所需要的迭代次数根据模型的不同而不同。由于我们不能提前预知,因此我们可以绘制出迭代次数和代价函数的对应关系图来观测算法在何时是趋于收敛。

      技术分享

       当然,也有一些可以自动检测是否收敛的方法,例如我们将代价函数的变化值与某个预先设定的阈值(如0.001)进行比较,从而判断是否收敛。但是通常情况下,观测上面的图表更加直观。

       梯度下降算法每次的迭代会受到学习率的影响,如果学习率技术分享过小,则达到收敛所需的迭代次数会非常高;如果学习率技术分享过大,每次迭代可能不会减小代价函数,可能会越过局部最小值导致无法收敛。

       因此,通常情况下我们尝试的学习率可以是:...,0.001,0.003,0.01,0.03,0.1,0.3,1,...

      



Coursera Machine Learning 学习笔记(十)

原文:http://blog.csdn.net/jojozhangju/article/details/44303623

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!