首页 > 其他 > 详细

自信息、信息熵和相对熵

时间:2018-08-30 21:26:04      阅读:164      评论:0      收藏:0      [点我收藏+]

1、自信息

一件事发生的概率越大,其所带的信息量就越小,反之发生的概率越小,信息量就越大。

自信息就是以概率p(x)观察到某一事件发生所携带的信息量,自信息也是概率越大信息量就越小,也可以理解为某个概率事件进行编码所需要的最小编码长度

技术分享图片

2、信息熵/香农熵

熵是平均自信息量,

 

自信息、信息熵和相对熵

原文:https://www.cnblogs.com/zhaopAC/p/9562738.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!