首页 > 其他 > 详细

最速下降法(梯度下降法)

时间:2015-08-04 15:00:12      阅读:370      评论:0      收藏:0      [点我收藏+]

  最速下降法的影子在机器学习中正是无处不在,它简单实用。

一、表示

  在最速下降法中,对权值向量w的连续调整是在最速下降的方向上,即它是与梯度向量方向相反的,梯度向量记为(1),简记(2):

技术分享

  其中,η是一个正常数,称为步长或学习率参数。g(n)是在w(n)处的梯度向量值。在从迭代n到n+1的过程中算法应用修正。

二、证明

  用w(n)附近的一阶泰勒级数展开来逼近,可写成(4)式

  技术分享  由(1)式得到(5)式,将(5)式代入(4)式,得到(6)式。显然是梯度下降的。

三、优缺点

  缺点:局部极小值,而不是全局优化。只有目标函数是凸函数才是全局优化。

参考文献:《神经网络与机器学习》P59

 

最速下降法(梯度下降法)

原文:http://www.cnblogs.com/Wanggcong/p/4701703.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!