首页 > 其他 > 详细

信息论的基础知识

时间:2020-12-12 12:27:25      阅读:17      评论:0      收藏:0      [点我收藏+]

自信息量

接收到a的不确定性

\[{\rm{I}}({a}) = {\log _k}{1 \over {p({a})}} \]

条件自信息量

接收端收到b后,发送端是否为a尚存的不确定性

\[{\rm{I}}(a{\rm{|b}}) = {\log _k}{1 \over {p(a|b)}} \]

互信息量

收到b后,消除的不确定性为先验的不确定性减去尚存的不确定性,即收信者获得的信息量为

\[{\rm{I}}(a;{\rm{b}}) = {\log _k}{1 \over {p(a)}} - {\log _k}{1 \over {p(a|b)}} \]

信息熵

信源各个离散消息的自信息量(不确定度)的数学期望

\[H(X) = E(I({x_i})) = E({\log _2}{1 \over {p({x_i})}}) = - \sum\limits_{i = 1}^n {p({x_i}){{\log }_2}p({x_i})} \]

条件熵

在给定Y条件下,X集合的条件熵H(X|Y)为不同y下条件熵的期望

\[H(X|Y) = \sum\limits_j {p({y_j})H(X|{y_j}) = \sum\limits_{i,j} {p({y_j})} } p({x_i}|{y_j})I({x_i}|{y_j}) = \sum\limits_{i,j} {p({x_i}{y_j})} I({x_i}|{y_j}) \]

H(X|Y)损失熵,H(Y|X)噪声熵

联合熵

\[H(XY) = \sum\limits_{i,j} {p({x_i}{y_j})I({x_i}{y_j})} \]

\[H(XY) = H(X) + H(Y|X) \]

信道容量

在信道中最大的信息传输速率,单位是比特/信道符号

\[C = \mathop {\max }\limits_{p({x_i})} I(X;Y) \]

香农公式

\[C = W{\log _2}(1 + {{{P_s}} \over {{P_N}}}) = W{\log _2}({\rm{1 + }}{{{{\rm{P}}_{\rm{s}}}} \over {{{\rm{N}}_0}W}}) \]

信道容量仅和信噪比和带宽有关系

信息论的基础知识

原文:https://www.cnblogs.com/happen96/p/14123843.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!