首页 > 其他 > 详细

也说说EM

时间:2015-07-09 21:05:16      阅读:293      评论:0      收藏:0      [点我收藏+]

也说说EM

[本文链接:http://www.cnblogs.com/breezedeus/archive/2012/08/12/2634466.html,转载请注明出处]

 

前几天看Andrew Ng 讲EM的视频,又温习了一遍这玩意。

 

EM的想法其实也比较简单。我要最大化似然函数(或者后验概率),但是直接最大化很难。

 

所以,我找一个似然函数的近似函数,这个近似函数小于等于似然函数,而且局部上充分逼近似然函数(保证至少在某个点两个函数有相同的函数值),而且这个函数比较容易最大化。

 

要找到一个全局逼近原来似然函数的简单函数(简单是说容易找其最大值点)显然非常不容易。EM本身是迭代找解的,它的解决方法是找局部近似函数。在初始化模型参数后,EM首先获得一个在此初始参数附近很逼近似然函数的简单函数,然后找此简单函数的最大化值点,而后模型参数更新到找到的最大化值点;之后我们又获得一个新的简单函数,它在新的参数值附近很逼近似然函数,而后就又找此简单函数的最大化值点;如此循环下去……

 

所以简单说,EM就是一个找局部近似函数,而后找此近似函数的最大化值点的迭代过程。

技术分享

也说说EM

原文:http://www.cnblogs.com/yymn/p/4634094.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!