信息论初步
信息论的基本概念
信息论初步
- 自信息量(香农信息量): 一个随机事件发生某一结果后所带来的信息量称为自信息量,简称自信息。定义为其发生概率对数的负值
log以2为底时,单位为比特(bit)
- 信息熵: 信息熵是对所有可能发生的事件的信息量的期望值,也就是随机变量的不确定性的度量
最大离散熵定理(香农不等式):对于离散随机变量,当其可能的取值等概分布时,其熵达到最大值。即信源X中包含N个不同离散消息时,信源熵H(X)有
\[H(X) \leq \log N\]广义香农不等式:对于任意一个信源X,其熵H(X)不大于其最大离散熵
\[\log_2n=H_0\geq H_1\geq H_2\geq\cdots\geq H_m>H_\infty\]联合自信息量: 两个事件同时发生的信息量
- 条件自信息量: 已知事件Y发生的情况下,事件X发生的信息量
- 条件熵: 已知随机变量Y的条件下,随机变量X的条件熵
- 联合信息熵: 两个随机变量的联合信息熵
- 联合熵与条件熵的关系:
- 互信息量: 两个随机变量之间的互信息量,表示一个随机变量中包含另一个随机变量的信息量
冗余度: 表示一个信源在实际发出消息时所包含的多余消息
\(I(X;Y) = H(X) - H(X|Y) = H(Y) - H(Y|X)\) 信源效率: $\eta=\frac{H_\infty}{H_0}$
信源冗余度: $\rho=1-\eta$
本文由作者按照 CC BY 4.0 进行授权