本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown版本已归档至【Github仓库:​​information-theory​​】,需要的朋友们自取。或者公众号【AIShareLab】回复 信息论 也可获取。

信息冗余度(多余度、剩余度)

在信息论中,信息冗余传输消息所用数据位的数目与消息中所包含的实际信息的数据位的数目的差值

数据压缩是一种用来消除不需要的冗余的方法,校验和是在经过有限信道容量的噪声信道中通信,为了进行错误校正而增加冗余的方法。

信息冗余度一译"信息剩余度"。是指一定数量的信号单元可能有的最大信息量与其包含的实际信息量之差。通常用R表示。为信号的实际信息量,Imax为同样数量的信号单元可能有的最大信息量。会使传信绩效降低,但能提高通讯的抗干扰能力。

表示信源在实际发出消息时所包含的多余信息。

冗余度:

  • 信源符号间的相关性。
  • 相关程度越大,信源的实际熵越小
  • 信源符号分布的不均匀性。
  • 等概率分布时信源熵最大。
  • 极限熵和冗余度_通信原理

    极限熵和冗余度_概率分布_02

    :等概率分布时信源熵

    极限熵和冗余度_信息冗余_03

    :相互独立

    极限熵和冗余度_信息冗余_03

    :两者有关系

对于有记忆信源, 极限熵

极限熵和冗余度_通信原理_05

这就是说需要传送某一信源的信息, 理论上只需要传送 极限熵和冗余度_通信原理_06即可。但这必须掌握信源全部概率统计特性, 这显然是不现实的。实际上, 只能算出 极限熵和冗余度_通信原理_07。那么与理论极限值相比, 就要多传送 极限熵和冗余度_信息冗余_08

为了定量地描述信源的有效性, 定义: 信息效率

极限熵和冗余度_通信原理_09

冗余度

极限熵和冗余度_信息冗余_10

冗余度

由于信源存在冗余度,即存在一些不必要传送的信息,因此信源也就存在进一步压缩其信息率的可能性。

信源冗余度越大,其进一步压缩的潜力越大。这是信源编码与数据压缩的前提与理论基础

例:英文字母:

英文字母出现的概率如下表(含空格)

英文字母出现概率

极限熵和冗余度_概率分布_11

若各个字母独立等概, 则信息熵

极限熵和冗余度_概率分布_12

按照表计算独立不等概的信息熵

极限熵和冗余度_概率分布_13

若只考虑一维相关性, 有 极限熵和冗余度_通信原理_14, 进一步考虑二维相关性, 有极限熵和冗余度_信息冗余_15...

香农推断: 极限熵和冗余度_通信原理_16

从而:极限熵和冗余度_信息冗余_17

极限熵和冗余度_信息冗余_18

参考文献:

  1. Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  2. Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  3. 周炯槃. 通信原理(第3版)[M\]. 北京:北京邮电大学出版社, 2008.
  4. 樊昌信, 曹丽娜. 通信原理(第7版) [M\]. 北京:国防工业出版社, 2012.