首页 > 其他 > 详细

HMM MEMM & label bias

时间:2014-07-29 12:28:06      阅读:454      评论:0      收藏:0      [点我收藏+]

http://blog.csdn.net/xum2008/article/details/38147425

隐马尔科夫模型(HMM):

bubuko.com,布布扣

图1. 隐马尔科夫模型

隐马尔科夫模型的缺点:

        1、HMM只依赖于每一个状态和它对应的观察对象:

              序列标注问题不仅和单个词相关,而且和观察序列的长度,单词的上下文,等等相关。

        2、目标函数和预测目标函数不匹配:

              HMM学到的是状态和观察序列的联合分布P(Y,X),而预测问题中,我们需要的是条件概率P(Y|X)。

 

最大熵隐马尔科夫模型(MEMM):

bubuko.com,布布扣

 

 

图2. 最大熵马尔科夫模型

        MEMM考虑到相邻状态之间依赖关系,且考虑整个观察序列,因此MEMM的表达能力更强;MEMM不考虑P(X)减轻了建模的负担,同时学到的是目标函数是和预测函数一致。

MEMM的标记偏置问题:

bubuko.com,布布扣

 

 

图3. Viterbi算法解码MEMM,状态1倾向于转换到状态2,同时状态2倾向于保留在状态2;

P(1-> 1-> 1-> 1)= 0.4 x 0.45 x 0.5 = 0.09 ,P(2->2->2->2)= 0.2 X 0.3 X 0.3 = 0.018,

P(1->2->1->2)= 0.6 X 0.2 X 0.5 = 0.06,P(1->1->2->2)= 0.4 X 0.55 X 0.3 = 0.066。

        图3中状态1倾向于转换到状态2,同时状态2倾向于保留在状态2;但是得到的最优的状态转换路径是1->1->1->1,为什么呢?因为状态2可以转换的状态比状态1要多,从而使转移概率降低;即MEMM倾向于选择拥有更少转移的状态。这就是标记偏置问题。而CRF很好地解决了标记偏置问题。

        MEMM是局部归一化,CRF是全局归一化

        另一方面,MEMMs不可能找到相应的参数满足以下这种分布:

         a b c --> a/A b/B c/C      p(A B C | a b c) = 1

         a b e --> a/A b/D e/E      p(A D E | a b e) = 1

         p(A|a)p(B|b,A)p(C|c,B) = 1

         p(A|a)p(D|b,A)p(E|e,D) = 1

       但是CRFs可以找到模型满足这种分布。

HMM MEMM & label bias,布布扣,bubuko.com

HMM MEMM & label bias

原文:http://www.cnblogs.com/kevinGaoblog/p/3874709.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!