第六章 连续消息和连续信道
6-1 连续消息的信息度量
- 将连续型信源变换成离散型信源,用离散信源的分析方法进行分析
- 再将量化单位无限缩小,在极限情况下分析离散情况得到的结果
样值量化——连续信源变为离散信源
- 时间抽样
- 量化幅度
- 每个样值的自信息量以及信源熵都可用离散信源理论计算,所得离散信源的熵可近似作为此连续信源的熵
量化级无限增大 ——离散信源还原成连续信源
- 量化幅度与原幅度间的差异会引起量化噪声
- 可以使用非线性压扩和减小量化单位减少量化噪声
- 当量化单位无限缩小时,离散信源就能还原为连续信源
- 设样值的熵为 ,它实际上就是量化后得到的单符号离散信源的信息熵
- 设量化前样值的幅度为 ,对应的概率密度值为 ;若量化后的样值幅度为 ,对应的概率密度值为 ,则在区间 ,其概率为
- 量化后共有 个取值, 则离散信源的信息熵
- 当 趋于 0 , 得到连续信源的熵的计算公式 第一项由且仅由 决定, 为确定值, 称为相对熵, 用 表示; 第二项当 时它趋于无限大, 称为绝对熵, 用 表示:
相对熵:
- 相对熵的形式与离散信源熵的形式相近,另外当考虑信息传输问题时,由于互信息量等于两个熵相减,所以绝对熵可以抵消,只剩下相对熵
- 相对熵能够很好地量度连续信源的信息特性,在后面的讨论中,如无特别说明,一般所说的信源熵都是指相对熵
绝对熵:
- 之所以称为绝对熵,是因为 时它趋于无限大,且连续信源的各种熵都有这一项
输出随机序列的连续信源
- 联合相对熵为 比特 / 样值序列
输出随机信号的波形信源
- 采样后转换为无穷维随机序列
- 比特/样值序列
- 比特/秒(更常用)
- 对于带宽为 ,时长为 的信号, 等价于计算长度为 的随机序列信源的相对熵
6-1-2 几种连续信源的相对熵
均匀分布:
- 相对熵: 比特/样值
- 时,相对熵为负
N维区域体积内均匀分布的连续信源: N维连续信源输出随机向量 的各个分量分别在 区域内均匀分布,
- 该信源的相对熵为 比特/样值序列 等于 维区域体积的对数, 也等于各分量相对熵之和 (与离散无记忆信源一致)
- 推广到带宽为 , 时长为 的波形信源, 如果每个样值 在 区间服从均匀分布, 相对熵为 比特/样值序列
- 单位时间内的相对熵为 比特/秒
高斯分布连续信源:
- 相对熵: 奈特 / 样值
- 当均值为 0 时,即不计高斯连续信源X中的直流部分时, 奈特 / 样值,P 为平均功率
- 对于协方差矩阵为 C 的高斯向量 x: 奈特 / 样值;
- 当 x 的各元素独立时,有
指数分布:
- 相对熵为: 奈特/样值
6-1-3 条件熵
离散信源条件熵 其中任意两事件 的联合概率为 连续信源经取样、量化后的样值共有 个取值, 则条件熵为
相对条件熵: 绝对条件熵: 当 时绝对条件熵趋于无限大
- 对于输出随机序列的连续信源, 相对条件熵为
6-1-4 连续消息熵的性质
- , 以及 ,当且仅当x和y相互独立时取等
- 可加性:x和y 独立时
- 强可加性:
- 相对熵可以是正值或0,也可以是负值,取决于概率密度函数
- 相对熵是 的凹函数
- 相对熵存在最大值,但是与离散信源不同,对信源不同限制条件下的最大熵不相同
- 连续信源输出的随机变量(随机向量)通过确定的一一对应变换后,相对熵会发生变化
- 将随机变量 和 的变换关系记作 , 则有 其中 若 X、Y 为矩阵,则
6-1-5 最大相对熵定理
定理 6.1 设 是在 区间具有某种分布的概率密度函数,其约束条件为 ; 为不同于 的其他分布,但约束条件和 相同,也为 。 则有 区间 在极限情况 时, 上式仍然成立。
定理 6.2 峰值功率受限条件下信源的最大熵定理 若某信源输出信号的峰值功率受限,即信号的取值被限定在某一有限范围内, 则在限定的范围内,当输出信号幅度的概率密度函数是均匀分布时该信源达到最大熵值。
设 ,则峰值功率为 ,该信源的最大相对熵为
如果将对应的分布称为最佳分布并用 表示,则有
定理 6.3 平均功率受限条件下信源的最大熵定理 若某信源输出信号的平均功率被限定,则当其输出信号的概率密度函数 是高斯分布时, 信源达到最大熵值;对于 N 维连续信源来说,若N维随机矢量的协方差矩阵被限定, 则 N 维连续信源为 N 维高斯分布时达到最大熵值。
平均交流功率:方差
定理6.4 均值受限条件下信源的最大熵定理 若某连续信源 X 输出非负信号的均值被限定,则其输出信号幅度为指数分布时, 连续信源 X 达到最大熵值。
6-1-6 熵功率和熵功率不等式
熵功率
熵功率是给定零均值高斯分布的相对熵 ,反推出平均功率:
可以采用 衡量连续信源的冗余度
熵功率不等式
两个零均值统计独立的连续随机变量 X 和 Z,平均功率分别为 和 , 则随机变量 的平均功率
,当 X 和 Z 为独立高斯随机变量时等号成立
6-2 连续消息在信道上的传输问题
- 连续消息的平均互信息量 比特 /样值
- 连续消息序列的平均互信息量 比特 /样值
- 波形信号的平均互信息量 比特/样值序列
- 比特/秒
- 对于带宽为B,时长为T的信号,等价于计算长度N=2BT的连续消息序列的平均互信息量
连续消息平均互信息量性质:
- 非负性
- 对称性
- 上凸函数
- 数据处理定理:若 形成马氏链,则
- 一一对应的变换不改变平均互信息量关系
- 和 的关系
- 如果多维连续信源无记忆, 则
- 如果多维连续信道无记忆, 则
- 如果信源和信道均无记忆, 则
单符号加性信道的平均互信息量:
多维加性信道的平均互信息量:
对于多维加性信道, 信道无记忆等价于噪声分量独立
加性波形信道的平均互信息量
6-3 香农信道容量公式
6-3-1 加性信道的信道容量
加性噪声:
连续加性信道的信道容量
-
单符号信道
-
多维信道
-
波形信道
-
单符号高斯加性信道:
- 奈特 /样值
-
单符号非高斯加性信道
- 奈特 /样值
- 同等噪声功率情况下高斯噪声是最坏情况噪声(使得信道容量最小)
-
多维无记忆高斯加性信道
注水原则:应当向 噪声功率较小分量度 分配 较多的输入信号功率;若噪声各分量等功率,则输入信号等功率分配最优
- 多维有记忆高斯加性信道
6-3-2 带限AWGN信道的信道容量
WGN采样点为服从独立同分布的高斯随机变量
WGN各样值方差均为 (即自相关函数)
(AWGN信道中)当输入信号的样值服从零均值独立高斯分布,且每个样值的功率相等时(即输入信号具有高斯白噪声特性)
带限AWGN信道的信道容量为
单位时间的信道容量(Shannon 公式):
Shannon公式成立的条件
- 输入信号平均功率为 (为AWGN时达到信道容量)
- 带宽为 的带限信道
- 噪声为AWGN,功率谱密度为
有色加性高斯噪声信道的信道容量
6-3-3 香农公式的意义
- 信道容量与所传输信号的有效带宽成正比,信号的有效带宽越宽,信道容量越大
- 信道容量与信道上的信号噪声比有关,信噪比越大,信道容量也越大,但其制约规律呈对数关系
- 信道容量 C、有效带宽 B 和信噪比 S/N 可以相互起补偿作用,即可以互换
- 当信噪比小于1时,信道的信道容量并不等于0,这说明此时信道仍具有传输消息的能力。也就是说,信噪比小于1时仍能进行可靠的通信
- 信号有效带宽无限时,信道容量
- 香农公式是在噪声为AWGN情况推得的,对那些不是白色高斯噪声的信道干扰而言,其信道容量应该大于按香农公式计算的结果