首页 > 其他 > 详细

Deep Learning 最优化方法之AdaGrad

时间:2020-04-02 12:18:25      阅读:46      评论:0      收藏:0      [点我收藏+]

结论:

1.简单来讲,设置全局学习率之后,每次通过,全局学习率逐参数的除以历史梯度平方和的平方根,使得每个参数的学习率不同

2.效果是:在参数空间更为平缓的方向,会取得更大的进步(因为平缓,所以历史梯度平方和较小,对应学习下降的幅度较小)

3.缺点是,使得学习率过早,过量的减少

4.在某些模型上效果不错。

算法流程如下:
技术分享图片

 

 具体推导流程如下:

技术分享图片

 

技术分享图片

 

技术分享图片

 

技术分享图片

 

技术分享图片

 

可看出从x0点到最优点-b/2a需要走的步长为x0+b /2a刚好是一次微分和二次微分的比值。

技术分享图片

 

技术分享图片

 

通过一阶导数近似斜率的方式,寻找其他代替减少大小就可以。

Deep Learning 最优化方法之AdaGrad

原文:https://www.cnblogs.com/limingqi/p/12618661.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!