首页 > 其他 > 详细

大规模机器学习优化方法综述

时间:2016-06-27 17:07:13      阅读:368      评论:0      收藏:0      [点我收藏+]

 

本文对这篇论文的简单描述

Optimization Methods for Large-Scale Machine Learning
author:Leon Bottou Frank E. Curtisy Jorge Nocedalz

  4. Analyses of Stochastic Gradient Methods

不失一般性,将期望风险R(w)和经验风险Rn(w)的目标函数表示如下


技术分享

本节主要讨论SG算法的收敛性及最糟的迭代上界

技术分享

 

以上算法就称之为SG, g主要为三种形式

技术分享

4.1 两个基本引理

通常SG的收敛性证明,需要目标函数F的光滑性、

技术分享

根据这个猜想得出一个重要的不等式

技术分享

由算法4.1知道 w(k+1)与 \xi_k 相关  ,{\xi_1,\xi_2,...,}是随机变量,可以看成一个分布

技术分享

对不等式取期望就得到(4.4)  (note:w(k+1)与\xi_k相关)

 

大规模机器学习优化方法综述

原文:http://www.cnblogs.com/who-a/p/5620498.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!