Last updated 5 months ago
2.1 介绍
一个常见的通信系统如图
则信道容量的定义为:
一个无线通信系统如下
离散无记忆信道:
2.2 二元对称信道(BSC)
输入:0 1 0 0 0 1 1 0 1 0
输出:0 1 1 1 0 0 1 0 0 0
信道传输条件概率如下:
信道概率转移矩阵为:
这是最简单的无线通信信道模型。
综上,二元对称信道的信道容量
2.3 二元擦除信道(BEC)
输入:1 0 0 1 0 1 0 1 0 0...
输出:1 e 0 1 e 0 e 0 e 1...
它是计算机网络中常用的信道模型。数据包要么被完美接收,要么丢失。
综上可得
上图可以理解为,丢包率越小,信道容量越大,这里没有出现对称关系,是因为收到0不会翻转得到1
2.4 加性高斯白噪声信道(AWGN)
这是一种更现实的无线信道模型,其中传输的信号受到噪声的干扰。
它用于表示能够确保视距传输(LoS)的空间通信信道。
信道的互信息为
信道容量为
在噪声的熵为
综上,信道容量为
电磁波中的传输因素(维度):振幅、频率、相位,调制的维度会影响信道容量,如下图
常用的信道容量公式:
现在我们考虑带宽受限的AWGN信号。在实际系统中,接收端需要进行采样来重建接收信号,如图所示
通过采样,我们现在得到了一系列时间离散的高斯样本,信道模型变为
每个时刻离散高斯信道的容量为
得
同理,由
得
因此
这是用信号高能量和噪声功率的比值来表示某个采样点的信道容量。
带宽受限的AWGN信号的信道容量为
继续展开
证明:
这样添加冗余度就不会增加传输能量。
以BPSK为例,调制符号的能量为
为了实现无错误传输,需要
夹断信噪比为
有限调制字母表,即不再假设输入为高斯信号,而是有限调制字母表。在无线通信系统中,数字信号被调制(映射)为模拟信号进行传输。常用的调制方案包括:
AWGN 信道具有有限输入但连续输出。
信道容量
由于
假设每个调制符号都有同等的可能性被传输,则有
所以信道容量为
考虑有限输入的信道容量
2.5 衰落信道
衰落系数𝛼进一步表示信号衰减、信号散射、路径损耗和多径累积的影响。
遍历容量:
它是所有衰落实现中可以实现的平均传输速率。
在通信系统中,通过观察 Y Y Y ,我们的目标是恢复 X X X 。互信息量I ( X , Y ) = H ( X ) − H ( X ∣ Y ) = H ( Y ) − H ( Y ∣ X ) I(X,Y)=H(X)-H(X|Y)=H(Y)-H(Y|X) I ( X , Y ) = H ( X ) − H ( X ∣ Y ) = H ( Y ) − H ( Y ∣ X ) 定义了收到Y Y Y 之后X X X 不确定性的减少量(反之亦然),这种不确定性是由于信道的传输。让输入X X X 和输出Y Y Y 的取值分别为x x x 和y y y ,信道转移概率为P ( Y ∣ X ) P(Y|X) P ( Y ∣ X ) (知道 x x x 已传输,则观察到 y y y 的概率。它定义了信道质量。)因此X X X 和Y Y Y 之间的互信息为
I ( X , Y ) = E [ log 2 P ( y ∣ x ) P ( y ) ] = E [ log 2 P ( y ∣ x ) ∑ x P ( y ∣ x ) P ( x ) ] \begin{aligned} I(X,Y)& =\mathbb{E}\left[\log_2\frac{P(y\mid x)}{P(y)}\right] \\ &=\mathbb{E}\left[\log_2\frac{P(y\mid x)}{\sum_xP(y\mid x)P(x)}\right] \end{aligned} I ( X , Y ) = E [ log 2 P ( y ) P ( y ∣ x ) ] = E [ log 2 ∑ x P ( y ∣ x ) P ( x ) P ( y ∣ x ) ] P ( y ∣ x ) : 信道质量 ; P ( x ) : 信源概率分布 P(y|x):信道质量;P(x):信源概率分布 P ( y ∣ x ) : 信道质量 ; P ( x ) : 信源概率分布 C = max P ( X ) { I ( X , Y ) } C=\max_{P(X)}\{I(X,Y)\} C = P ( X ) max { I ( X , Y )} 信道容量表示在所有信源分布P ( x ) P(x) P ( x ) 上可以实现的最大互信息I ( x , y ) I(x,y) I ( x , y ) 。在无线通信系统中,它指的是一个调制符号所能携带的最大信息比特数量,使得信息能够以任意低的错误概率被恢复。
需要信道编码来实现这种可靠的通信,给定k k k 位信息符号(或比特),添加冗余以获得n ( n > k ) n(n>k) n ( n > k ) 位码字符号(或位),编码率为r = k n r=\frac{k}{n} r = n k 。编码了可以理解为信息冗余程度。使用二进制调制,例如BPSK,如果r < C r<C r < C ,则可以进行可靠的通信。这个性质将在香农信道编码定理(第4章)中得到证明。
离散输入:X ∈ 0 , 1 , . . . , u − 1 X\in{0,1,...,u-1} X ∈ 0 , 1 , ... , u − 1
离散输出:Y ∈ 0 , 1 , . . . , v − 1 Y\in{0,1,...,v-1} Y ∈ 0 , 1 , ... , v − 1
信道转移概率大于等于0,即P ( y ∣ x ) ≥ 0 P(y|x)\ge0 P ( y ∣ x ) ≥ 0 ,同时信道具有归一性,即∑ y P ( y ∣ x ) = 1 , ∀ x \sum_yP(y|x)=1,\forall x ∑ y P ( y ∣ x ) = 1 , ∀ x ,注意∑ x P ( x ∣ y ) ≠ 1 , ∀ y \sum_xP(x|y)\ne1,\forall y ∑ x P ( x ∣ y ) = 1 , ∀ y 。
信道具有无记忆性:给定输入和输出序列x = ( x 1 , x 2 , . . . , x n ) \textbf{x}=(x_1,x_2,...,x_n) x = ( x 1 , x 2 , ... , x n ) 和y = ( y 1 , y 2 , . . . y n ) \textbf y=(y_1,y_2,...y_n) y = ( y 1 , y 2 , ... y n ) ,有
P ( y ∣ x ) = ∏ i = 1 n P ( y i ∣ x i ) P(y|x)=\prod_{i=1}^nP(y_i|x_i) P ( y ∣ x ) = i = 1 ∏ n P ( y i ∣ x i ) 即每一对符号之间的转移概率相互独立。转移概率P ( y ∣ x ) P(y|x) P ( y ∣ x ) 可以用转移概率矩阵表示
Y : 0 1 ⋯ v − 1 P = X : 0 ⋮ u − 1 [ P ( 0 ∣ 0 ) ⋯ P ( v − 1 ∣ 0 ) P ( 0 ∣ 1 ) ⋯ P ( v − 1 ∣ 1 ) ⋮ ⋱ ⋮ P ( 0 ∣ u − 1 ) ⋯ P ( v − 1 ∣ u − 1 ) ] \begin{gathered}Y{:}\quad0\quad1\quad\cdots\quad v-1\\\mathbf{P}=\begin{array}{cccc}X{:}&0\\&\vdots\\&u-1\end{array}\begin{bmatrix}P(0|0)&\cdots&P(v-1|0)\\P(0|1)&\cdots&P(v-1|1)\\\vdots&\ddots&\vdots\\P(0|u-1)&\cdots&P(v-1|u-1)\end{bmatrix}\end{gathered} Y : 0 1 ⋯ v − 1 P = X : 0 ⋮ u − 1 P ( 0∣0 ) P ( 0∣1 ) ⋮ P ( 0∣ u − 1 ) ⋯ ⋯ ⋱ ⋯ P ( v − 1∣0 ) P ( v − 1∣1 ) ⋮ P ( v − 1∣ u − 1 ) P ( y = 1 ∣ x = 0 ) = P ( y = 0 ∣ x = 1 ) = p P ( y = 0 ∣ x = 0 ) = P ( y = 1 ∣ x = 1 ) = 1 − p P(y=1|x=0)=P(y=0|x=1)=p\\P(y=0|x=0)=P(y=1|x=1)=1-p P ( y = 1∣ x = 0 ) = P ( y = 0∣ x = 1 ) = p P ( y = 0∣ x = 0 ) = P ( y = 1∣ x = 1 ) = 1 − p P = 1 − p p p 1 − p P=\begin{array}{|cc|}1-p&p\\p&1-p\end{array} P = 1 − p p p 1 − p 现在来考虑它的信道容量。由于I ( X , Y ) = H ( Y ) − H ( Y ∣ X ) I(X,Y)=H(Y)-H(Y|X) I ( X , Y ) = H ( Y ) − H ( Y ∣ X ) ,分析可知,当H ( Y ) H(Y) H ( Y ) 去最大值,H ( Y ∣ X ) H(Y|X) H ( Y ∣ X ) 取最小值时,此时I ( X , Y ) I(X,Y) I ( X , Y ) 最大。其中H ( Y ) ≤ 1 H(Y)\le1 H ( Y ) ≤ 1 ,H ( Y ∣ X ) H(Y|X) H ( Y ∣ X ) 计算如下
H ( Y ∣ X ) = − ∑ x ∈ X ∑ y ∈ Y P ( x , y ) l o g 2 P ( y ∣ x ) = − ∑ x ∈ X ∑ y ∈ Y P ( y ∣ x ) P ( x ) l o g 2 P ( y ∣ x ) = − P ( x = 0 ) ∑ y ∈ { 0 , 1 } P ( y ∣ x = 0 ) l o g 2 P ( y ∣ x = 0 ) − P ( x = 1 ) ∑ y ∈ { 0 , 1 } P ( y ∣ x = 1 ) l o g 2 P ( y ∣ x = 1 ) = − P ( x = 0 ) ( ( 1 − p ) l o g 2 ( 1 − p ) + p l o g 2 p ) − P ( x = 1 ) ( p l o g 2 p + ( 1 − p ) l o g 2 ( 1 − p ) ) = − ( 1 − p ) l o g 2 ( 1 − p ) − p l o g 2 p b i t s / s y m . \begin{aligned} H(Y|X)&=-\sum_{x\in X}\sum_{y\in Y}P(x,y)\mathrm{log}_2P(y|x) \\ &=-\sum_{x\in X}\sum_{y\in Y}P(y|x)P(x)\mathrm{log}_2P(y|x) \\ &=-P(x=0)\sum_{y\in\{0,1\}}P(y|x=0)log_2P(y|x=0)-P(x=1)\sum_{y\in\{0,1\}}P(y|x=1)\mathrm{log}_2P(y|x=1) \\ &=-P(x=0)((1-p)\mathrm{log}_2(1-p)+p\mathrm{log}_2p)-P(x=1)(p\mathrm{log}_2p+(1-p)\mathrm{log}_2(1-p)) \\ &=-(1-p)\mathrm{log}_2(1-p)-p\mathrm{log}_2p\mathrm{~bits/sym}. \end{aligned} H ( Y ∣ X ) = − x ∈ X ∑ y ∈ Y ∑ P ( x , y ) log 2 P ( y ∣ x ) = − x ∈ X ∑ y ∈ Y ∑ P ( y ∣ x ) P ( x ) log 2 P ( y ∣ x ) = − P ( x = 0 ) y ∈ { 0 , 1 } ∑ P ( y ∣ x = 0 ) l o g 2 P ( y ∣ x = 0 ) − P ( x = 1 ) y ∈ { 0 , 1 } ∑ P ( y ∣ x = 1 ) log 2 P ( y ∣ x = 1 ) = − P ( x = 0 ) (( 1 − p ) log 2 ( 1 − p ) + p log 2 p ) − P ( x = 1 ) ( p log 2 p + ( 1 − p ) log 2 ( 1 − p )) = − ( 1 − p ) log 2 ( 1 − p ) − p log 2 p bits/sym . 当P ( x = 0 ) = P ( x = 1 ) = 1 2 , H ( Y ) = 1 P(x=0)=P(x=1)=\frac{1}{2},H(Y)=1 P ( x = 0 ) = P ( x = 1 ) = 2 1 , H ( Y ) = 1 时,信道容量C = 1 − H ( Y ∣ X ) b i t / s y m b o l C=1-H(Y|X)bit/symbol C = 1 − H ( Y ∣ X ) bi t / sy mb o l
为什么信源等概分布时,互信息量最大,即达到信道容量?比较浅层的理解是,当信源等概分布时,H ( Y ) H(Y) H ( Y ) 最大,而H ( Y ∣ X ) H(Y|X) H ( Y ∣ X ) 与信源概率分布无关,所以此时互信息量最大,更深层次的理解是,信号0和信号1的传输出错概率是一样的,即P ( y = 0 ∣ x = 1 ) = P ( y = 1 ∣ x = 0 ) P(y=0|x=1)=P(y=1|x=0) P ( y = 0∣ x = 1 ) = P ( y = 1∣ x = 0 ) ,所以传输时没有必要考虑两者的差别,即等概率分布时最优。
C = 1 + p l o g 2 p + ( 1 − p ) l o g 2 ( 1 − p ) b i t s / s y m b o l C=1+p\mathrm{log}_2p+(1-p)\mathrm{log}_2(1-p)\mathrm{~bits/symbol} C = 1 + p log 2 p + ( 1 − p ) log 2 ( 1 − p ) bits/symbol P ( y = e ∣ x = 0 ) = P ( y = e ∣ x = 1 ) = p P ( y = 0 ∣ x = 0 ) = P ( y = 1 ∣ x = 1 ) = 1 − p P(y=e|x=0)=P(y=e|x=1)=p\\P(y=0|x=0)=P(y=1|x=1)=1-p P ( y = e ∣ x = 0 ) = P ( y = e ∣ x = 1 ) = p P ( y = 0∣ x = 0 ) = P ( y = 1∣ x = 1 ) = 1 − p P = [ 1 − p 0 p 0 1 − p p ] P=\left[\begin{array}{ccc}1-p&0&p\\0&1-p&p\end{array}\right] P = [ 1 − p 0 0 1 − p p p ] 现在来考虑它的信道容量,和BSC的分析类似,P ( x = 0 ) = P ( x = 1 ) = 1 2 P(x=0)=P(x=1)=\frac{1}{2} P ( x = 0 ) = P ( x = 1 ) = 2 1 时互信息量最接近信道容量。信道容量C = H ( Y ) − H ( Y ∣ X ) C=H(Y)-H(Y|X) C = H ( Y ) − H ( Y ∣ X ) ,又因为P ( y = 0 ) = P ( y = 1 ) = 1 2 ( 1 − p ) P(y=0)=P(y=1)=\frac{1}{2}(1-p) P ( y = 0 ) = P ( y = 1 ) = 2 1 ( 1 − p ) 且P ( y = e ) = p P(y=e)=p P ( y = e ) = p ,所以Y Y Y 的熵为
H ( Y ) = − ∑ y ∈ Y P ( y ) l o g 2 P ( y ) = − P ( y = 0 ) l o g 2 P ( y = 0 ) − P ( y = e ) l o g 2 P ( y = e ) − P ( y = 1 ) l o g 2 P ( y = 1 ) = − 1 2 ( 1 − p ) l o g 2 1 2 ( 1 − p ) − p l o g 2 p − 1 2 ( 1 − p ) l o g 2 1 2 ( 1 − p ) = − ( 1 − p ) l o g 2 1 2 ( 1 − p ) − p l o g 2 p ( b i t s / s y m ) \begin{aligned} H(Y)&=-\sum_{y\in Y}P(y)\mathrm{log}_2P(y) \\ &=-P(y=0)\mathrm{log}_2P(y=0)-P(y=e)\mathrm{log}_2P(y=e)-P(y=1)\mathrm{log}_2P(y=1)\\ &=-\frac12(1-p)\mathrm{log}_2\frac12(1-p)-p\mathrm{log}_2p-\frac12(1-p)\mathrm{log}_2\frac12(1-p) \\ &=-(1-p)\mathrm{log}_2\frac12(1-p)-p\mathrm{log}_2p\:(\mathrm{~bits/sym}) \end{aligned} H ( Y ) = − y ∈ Y ∑ P ( y ) log 2 P ( y ) = − P ( y = 0 ) log 2 P ( y = 0 ) − P ( y = e ) log 2 P ( y = e ) − P ( y = 1 ) log 2 P ( y = 1 ) = − 2 1 ( 1 − p ) log 2 2 1 ( 1 − p ) − p log 2 p − 2 1 ( 1 − p ) log 2 2 1 ( 1 − p ) = − ( 1 − p ) log 2 2 1 ( 1 − p ) − p log 2 p ( bits/sym ) H ( Y ∣ X ) = − ∑ x ∈ X ∑ y ∈ Y P ( y ∣ x ) P ( x ) l o g 2 P ( y ∣ x ) = − P ( y = 0 ∣ x = 0 ) ⋅ 1 2 ⋅ log 2 P ( y = 0 ∣ x = 0 ) − P ( y = 1 ∣ x = 1 ) ⋅ 1 2 ⋅ log 2 P ( y = 1 ∣ x = 1 ) − P ( y = e ∣ x = 0 ) ⋅ 1 2 ⋅ log 2 P ( y = e ∣ x = 0 ) − P ( y = e ∣ x = 1 ) ⋅ 1 2 ⋅ log 2 P ( y = e ∣ x = 1 ) = − ( 1 − p ) l o g 2 ( 1 − p ) − p l o g 2 p ( b i t s / s y m ) \begin{aligned} H(Y|X) =&-\sum_{x\in X}\sum_{y\in Y}P(y|x)P(x)\mathrm{log}_2P(y|x) \\ =&-P(y=0|x=0)\cdot\frac12\cdot\log_2P(y=0|x=0) -P(y=1|x=1)\cdot\frac12\cdot\log_2P(y=1|x=1) \\ &-P(y=e|x=0)\cdot\frac12\cdot\log_2P(y=e|x=0) -P(y=e|x=1)\cdot\frac12\cdot\log_2P(y=e|x=1) \\ =&-(1-p)\mathrm{log}_2(1-p)-p\mathrm{log}_2p\:(\mathrm{~bits/sym}) \end{aligned} H ( Y ∣ X ) = = = − x ∈ X ∑ y ∈ Y ∑ P ( y ∣ x ) P ( x ) log 2 P ( y ∣ x ) − P ( y = 0∣ x = 0 ) ⋅ 2 1 ⋅ log 2 P ( y = 0∣ x = 0 ) − P ( y = 1∣ x = 1 ) ⋅ 2 1 ⋅ log 2 P ( y = 1∣ x = 1 ) − P ( y = e ∣ x = 0 ) ⋅ 2 1 ⋅ log 2 P ( y = e ∣ x = 0 ) − P ( y = e ∣ x = 1 ) ⋅ 2 1 ⋅ log 2 P ( y = e ∣ x = 1 ) − ( 1 − p ) log 2 ( 1 − p ) − p log 2 p ( bits/sym ) C = H ( Y ) − H ( Y ∣ X ) = 1 − p b i t s / s y m . C=H(Y)-H(Y|X)\\=1-p\mathrm{~bits/sym.} C = H ( Y ) − H ( Y ∣ X ) = 1 − p bits/sym. 加性高斯白噪声的信道模型为:y = x + n y=x+n y = x + n
n n n :独立于x的白噪声,服从N ( 0 , σ N 2 ) N(0,σ_N^2) N ( 0 , σ N 2 ) 的高斯分布
I ( X , Y ) = H ( Y ) − H ( Y ∣ X ) = H ( Y ) − H ( X + N ∣ X ) = H ( Y ) − H ( N ∣ X ) = H ( Y ) − H ( N ) \begin{aligned} I(X,Y)& =H(Y)-H(Y|X) \\ &=H(Y)-H(X+N|X) \\ &=H(Y)-H(N|X) \\ &=H(Y)-H(N) \end{aligned} I ( X , Y ) = H ( Y ) − H ( Y ∣ X ) = H ( Y ) − H ( X + N ∣ X ) = H ( Y ) − H ( N ∣ X ) = H ( Y ) − H ( N ) C = max P ( x ) { I ( X , Y ) } = max P ( x ) { H ( Y ) − H ( N ) } \begin{aligned}\text{C}&=\max_{P(x)}\{I(X,Y)\}\\&=\max_{P(x)}\{H(Y)-H(N)\}\end{aligned} C = P ( x ) max { I ( X , Y )} = P ( x ) max { H ( Y ) − H ( N )} 对于AWGN,N : N ( 0 , σ N 2 ) N:\mathcal{N}(0,\sigma_N^2) N : N ( 0 , σ N 2 ) ,它的PDF为
P ( n ) = 1 2 π σ N exp ( − n 2 2 σ N 2 ) P(n)=\frac1{\sqrt{2\pi}\sigma_N}\exp\left(-\frac{n^2}{2\sigma_N^2}\right) P ( n ) = 2 π σ N 1 exp ( − 2 σ N 2 n 2 ) H ( N ) = − ∫ − ∞ + ∞ P ( n ) l o g 2 P ( n ) d n = − ∫ − ∞ + ∞ 1 2 π σ N exp ( − n 2 2 σ N 2 ) log 2 ( 1 2 π σ N exp ( − n 2 2 σ N 2 ) ) d n = 1 2 log 2 ( 2 π e σ N 2 ) (bits/sym) \begin{aligned} H(N)& =-\int_{-\infty}^{+\infty}P(n)\mathrm{log}_2P(n)\mathrm{d}n \\ &=-\int_{-\infty}^{+\infty}\frac1{\sqrt{2\pi}\sigma_N}\exp\left(-\frac{n^2}{2\sigma_N^2}\right)\log_2\left(\frac1{\sqrt{2\pi}\sigma_N}\exp\left(-\frac{n^2}{2\sigma_N^2}\right)\right)\mathrm{d}n \\ &=\frac12\log_2(2\pi e\sigma_N^2)\text{ (bits/sym)} \end{aligned} H ( N ) = − ∫ − ∞ + ∞ P ( n ) log 2 P ( n ) d n = − ∫ − ∞ + ∞ 2 π σ N 1 exp ( − 2 σ N 2 n 2 ) log 2 ( 2 π σ N 1 exp ( − 2 σ N 2 n 2 ) ) d n = 2 1 log 2 ( 2 π e σ N 2 ) (bits/sym) 直接分析,如果输入X X X 是连续的且服从N ( μ X , σ X 2 ) \mathcal{N}(\mu_X,\sigma_X^2) N ( μ X , σ X 2 ) 高斯分布,则互信息量I ( X , Y ) I(X,Y) I ( X , Y ) 将取得最大值,即信道容量为
C = H ( Y ) − H ( N ) C=H(Y)-H(N) C = H ( Y ) − H ( N ) 对于输入X X X ,N ( μ X , σ X 2 ) \mathcal{N}(\mu_X,\sigma_X^2) N ( μ X , σ X 2 ) ,它的PDF为
P ( x ) = 1 2 π σ X exp ( − ( x − μ X ) 2 2 σ X 2 ) P(x)=\frac1{\sqrt{2\pi}\sigma_X}\exp\left(-\frac{(x-\mu_X)^2}{2\sigma_X^2}\right) P ( x ) = 2 π σ X 1 exp ( − 2 σ X 2 ( x − μ X ) 2 ) H ( X ) = − ∫ − ∞ + ∞ P ( x ) l o g 2 P ( x ) d x = − ∫ − ∞ + ∞ 1 2 π σ X exp ( − ( x − μ X ) 2 2 σ X 2 ) log 2 ( 1 2 π σ X exp ( − ( x − μ X ) 2 2 σ X 2 ) ) d x = 1 2 log 2 ( 2 π e σ X 2 ) bits/sym. \begin{aligned}H(X)&=-\int_{-\infty}^{+\infty}P(x)\mathrm{log}_2P(x)\mathrm{d}x\\&=-\int_{-\infty}^{+\infty}\frac1{\sqrt{2\pi}\sigma_X}\exp\left(-\frac{(x-\mu_X)^2}{2\sigma_X^2}\right)\log_2\left(\frac1{\sqrt{2\pi}\sigma_X}\exp\left(-\frac{(x-\mu_X)^2}{2\sigma_X^2}\right)\right)\mathrm{d}x\\&=\frac12\log_2(2\pi e\sigma_X^2)\text{ bits/sym.}\end{aligned} H ( X ) = − ∫ − ∞ + ∞ P ( x ) log 2 P ( x ) d x = − ∫ − ∞ + ∞ 2 π σ X 1 exp ( − 2 σ X 2 ( x − μ X ) 2 ) log 2 ( 2 π σ X 1 exp ( − 2 σ X 2 ( x − μ X ) 2 ) ) d x = 2 1 log 2 ( 2 π e σ X 2 ) bits/sym. 因为Y = X + N Y=X+N Y = X + N ,且X X X 和Y Y Y 相互独立,则输出Y Y Y 服从高斯分布N ( μ X , σ X 2 + σ N 2 ) = N ( μ X , σ Y 2 ) \mathcal{N}(\mu_X,\sigma_X^2+\sigma_N^2)=\mathcal{N}(\mu_X,\sigma_Y^2) N ( μ X , σ X 2 + σ N 2 ) = N ( μ X , σ Y 2 ) ,则Y Y Y 的熵为
H ( Y ) = 1 2 log 2 ( 2 π e ( σ X 2 + σ N 2 ) ) bits/sym H(Y)=\frac12\log_2(2\pi e(\sigma_X^2+\sigma_N^2))\text{ bits/sym} H ( Y ) = 2 1 log 2 ( 2 π e ( σ X 2 + σ N 2 )) bits/sym C = H ( Y ) − H ( N ) = 1 2 log 2 ( 2 π e ( σ X 2 + σ N 2 ) ) − 1 2 log 2 ( 2 π e σ N 2 ) = 1 2 log 2 ( 1 + σ X 2 σ N 2 ) bits/sym . \begin{aligned} \text{C}& =H(Y)-H(N) \\ &=\frac12\log_2(2\pi e(\sigma_X^2+\sigma_N^2))-\frac12\log_2(2\pi e\sigma_N^2) \\ &=\frac12\log_2\left(1+\frac{\sigma_X^2}{\sigma_N^2}\right)\text{bits/sym}. \end{aligned} C = H ( Y ) − H ( N ) = 2 1 log 2 ( 2 π e ( σ X 2 + σ N 2 )) − 2 1 log 2 ( 2 π e σ N 2 ) = 2 1 log 2 ( 1 + σ N 2 σ X 2 ) bits/sym . 其中,σ X 2 \sigma_X^2 σ X 2 是发射信号的功率,σ N 2 \sigma_N^2 σ N 2 是噪声的功率,因此σ X 2 σ N 2 \frac{\sigma_X^2}{\sigma_N^2} σ N 2 σ X 2 通常称为信噪比(SNR)。
上面的结论是通过假设X X X 服从高斯分布得来的,在实际的系统中,X X X 不是高斯分布的,因此这个限制是无法实现的。
C 1 − d i m = 1 2 ⋅ log 2 ( 1 + σ X 2 σ N 2 ) bits/sym. C 2 − d i m = 1 ⋅ log 2 ( 1 + σ X 2 σ N 2 ) bits/sym. C 3 − d i m = 3 2 ⋅ log 2 ( 1 + σ X 2 σ N 2 ) bits/sym. C_{1-\mathrm{dim}}=\frac12\cdot\log_2(1+\frac{\sigma_X^2}{\sigma_N^2})\text{ bits/sym.}\\C_{2-\mathrm{dim}}=1\cdot\log_2(1+\frac{\sigma_X^2}{\sigma_N^2})\text{ bits/sym.}\\C_{3-\mathrm{dim}}=\frac32\cdot\log_2(1+\frac{\sigma_X^2}{\sigma_N^2})\text{ bits/sym.} C 1 − dim = 2 1 ⋅ log 2 ( 1 + σ N 2 σ X 2 ) bits/sym. C 2 − dim = 1 ⋅ log 2 ( 1 + σ N 2 σ X 2 ) bits/sym. C 3 − dim = 2 3 ⋅ log 2 ( 1 + σ N 2 σ X 2 ) bits/sym. 信噪比(σ X 2 σ N 2 \frac{\sigma_X^2}{\sigma_N^2} σ N 2 σ X 2 )写成分贝(dB)的形式为:
10 log 10 σ X 2 σ N 2 10\log_{10}\frac{\sigma_X^2}{\sigma_N^2} 10 log 10 σ N 2 σ X 2 如果信号的频率为 W W W ,则采样频率至少应为 2 W 2W 2 W ,才能完美重构信号,如图所示
y ( t = s 2 W ) = x ( t = s 2 W ) + n ( t = s 2 W ) , s = 1 , 2 , ⋯ y\left(t=\frac s{2W}\right)=x\left(t=\frac s{2W}\right)+n\left(t=\frac s{2W}\right),s=1,2,\cdots y ( t = 2 W s ) = x ( t = 2 W s ) + n ( t = 2 W s ) , s = 1 , 2 , ⋯ 信号y ( t = s 2 W ) y\left(t=\frac s{2W}\right) y ( t = 2 W s ) 有方差σ X 2 \sigma_X^2 σ X 2 ,噪声n ( t = s 2 W ) n(t=\frac s{2W}) n ( t = 2 W s ) 有方差σ N 2 \sigma_N^2 σ N 2 。
C s = 1 2 l o g 2 ( 1 + σ X 2 σ N 2 ) bits/sample C_s=\frac12\mathrm{log}_2\left(1+\frac{\sigma_X^2}{\sigma_N^2}\right)\quad\text{bits/sample} C s = 2 1 log 2 ( 1 + σ N 2 σ X 2 ) bits/sample σ N 2 \sigma_N^2 σ N 2 :噪声样本的功率谱密度
σ X 2 \sigma_X^2 σ X 2 :信号样本的功率
σ X 2 ⋅ 2 W ⋅ T = E ⋅ T \sigma_X^2\cdot2W\cdot T=E\cdot T σ X 2 ⋅ 2 W ⋅ T = E ⋅ T E = 2 W σ X 2 E=2W\sigma_X^2 E = 2 W σ X 2 σ N 2 ⋅ 2 W ⋅ T = N 0 ⋅ W ⋅ T \sigma_N^2\cdot2W\cdot T=N_0\cdot W\cdot T σ N 2 ⋅ 2 W ⋅ T = N 0 ⋅ W ⋅ T σ N 2 = N 0 2 \sigma_N^2=\frac{N_0}2 σ N 2 = 2 N 0 C s = 1 2 log 2 ( 1 + E W N 0 ) bits/sample C_s=\frac12\log_2\left(1+\frac E{WN_0}\right)\quad\text{bits/sample} C s = 2 1 log 2 ( 1 + W N 0 E ) bits/sample C = ∑ s = 1 2 W T C s T , T –sampling duration C=\frac{\sum_{s=1}^{2WT}C_s}T,T–\text{sampling duration} C = T ∑ s = 1 2 W T C s , T – sampling duration C = 2 W T ⋅ 1 2 log 2 ( 1 + E W N 0 ) T = W log 2 ( 1 + E W N 0 ) bits/sec. C=\frac{2WT\cdot\frac12\log_2\left(1+\frac E{WN_0}\right)}T=W\log_2\left(1+\frac E{WN_0}\right)\quad\text{bits/sec.} C = T 2 W T ⋅ 2 1 log 2 ( 1 + W N 0 E ) = W log 2 ( 1 + W N 0 E ) bits/sec. 香农极限:要通过高斯信道实现无误差传输,信噪比E b N 0 \frac{E_b}{N_0} N 0 E b 至少为− 1.6 d B -1.6dB − 1.6 d B
这种可能性是通过信道编码(信息长度k,码字长度n)来保证的,令E b E_b E b 和E c E_c E c 分别表示每个信息符号和每个编码符号的能量,使它们满足
k ⋅ E b = n ⋅ E c k\cdot E_b=n\cdot E_c k ⋅ E b = n ⋅ E c E = E c = E b ⋅ k n = E b ⋅ r E=E_c=\frac{E_b\cdot k}n=E_b\cdot r E = E c = n E b ⋅ k = E b ⋅ r C = lim W → ∞ W log 2 ( 1 + E N 0 W ) = E N 0 l n 2 = E b ⋅ r N 0 l n 2 b i t s / s e c . \begin{aligned} \text{C}& =\lim_{W\to\infty}W\log_2\left(1+\frac E{N_0W}\right) \\ &=\frac E{N_0\mathrm{ln}2} \\ &=\frac{E_b\cdot r}{N_0\mathrm{ln}2}\mathrm{~bits/sec}. \end{aligned} C = W → ∞ lim W log 2 ( 1 + N 0 W E ) = N 0 ln 2 E = N 0 ln 2 E b ⋅ r bits/sec . r < C ⟹ E b N 0 > ln 2 = 0.69 r<C\Longrightarrow\frac{E_b}{N_0}>\ln2=0.69 r < C ⟹ N 0 E b > ln 2 = 0.69 S N R o f f = 10 l o g 10 0.69 = − 1.6 d B \mathrm{SNR_{off}=10log_{10}0.69=-1.6~dB} SN R off = 10lo g 10 0.69 = − 1.6 dB 输入X ∈ x 1 , x 2 , . . . , x M X\in{x_1,x_2,...,x_M} X ∈ x 1 , x 2 , ... , x M ,BPSK:M=2,QPSK:M=4,16QAM:M=16
输出y = x + n y=x+n y = x + n ,其中n n n 是AWGN
C = max P ( x i ) { ∑ i = 1 M ∫ y : − ∞ + ∞ P ( x i , y ) l o g 2 P ( y ∣ x i ) P ( y ) d y } C=\max_{P(x_i)}\left\{\sum_{i=1}^M\int_{y:-\infty}^{+\infty}P(x_i,y)\mathrm{log}_2\frac{P(y|x_i)}{P(y)}\mathrm{d}y\right\} C = P ( x i ) max { i = 1 ∑ M ∫ y : − ∞ + ∞ P ( x i , y ) log 2 P ( y ) P ( y ∣ x i ) d y } P ( x i , y ) = P ( y ∣ x i ) P ( x i ) P ( y ) = ∑ i ′ = 1 M P ( y ∣ x i ′ ) P ( x i ′ ) P(x_i,y)=P(y|x_i)P(x_i)\\ P(y)=\sum_{i^{\prime}=1}^MP(y|x_{i^{\prime}})P(x_{i^{\prime}}) P ( x i , y ) = P ( y ∣ x i ) P ( x i ) P ( y ) = i ′ = 1 ∑ M P ( y ∣ x i ′ ) P ( x i ′ ) C = max P ( x i ) { ∑ i = 1 M ∫ y : − ∞ + ∞ P ( y ∣ x i ) P ( x i ) l o g 2 P ( y ∣ x i ) P ( y ) d y } C=\max_{P(x_i)}\left\{\sum_{i=1}^M\int_{y:-\infty}^{+\infty}P(y|x_i)P(x_i)\mathrm{log}_2\frac{P(y|x_i)}{P(y)}\mathrm{d}y\right\} C = P ( x i ) max { i = 1 ∑ M ∫ y : − ∞ + ∞ P ( y ∣ x i ) P ( x i ) log 2 P ( y ) P ( y ∣ x i ) d y } C = max P ( x i ) { ∑ i = 1 M P ( x i ) ∫ y : − ∞ + ∞ P ( y ∣ x i ) l o g 2 P ( y ∣ x i ) ∑ i ′ = 1 M P ( x i ′ ) P ( y ∣ x i ′ ) d y } C=\max_{P(x_i)}\left\{\sum_{i=1}^MP(x_i)\int_{y:-\infty}^{+\infty}P(y|x_i)\mathrm{log}_2\frac{P(y|x_i)}{\sum_{i^{\prime}=1}^MP(x_{i^{\prime}})P(y|x_{i^{\prime}})}\mathrm{d}y\right\} C = P ( x i ) max { i = 1 ∑ M P ( x i ) ∫ y : − ∞ + ∞ P ( y ∣ x i ) log 2 ∑ i ′ = 1 M P ( x i ′ ) P ( y ∣ x i ′ ) P ( y ∣ x i ) d y } P ( x i ) = P ( x i ′ ) = 1 M P(x_i)=P(x_{i^{\prime}})=\frac1M P ( x i ) = P ( x i ′ ) = M 1 C = 1 M ∑ i = 1 M ∫ y : − ∞ + ∞ P ( y ∣ x i ) log 2 P ( y ∣ x i ) 1 M ∑ i ′ = 1 M P ( y ∣ x i ′ ) d y = 1 M ∑ i = 1 M E [ log 2 P ( y ∣ x i ) 1 M ∑ i ′ = 1 M P ( y ∣ x i ′ ) ] = 1 M ∑ i = 1 M E [ log 2 M + log 2 P ( y ∣ x i ) ∑ i ′ = 1 M P ( y ∣ x i ′ ) ] = log 2 M − 1 M ∑ i = 1 M E [ log 2 ∑ i ′ = 1 M P ( y ∣ x i ′ ) P ( y ∣ x i ) ] = log 2 M − 1 M ∑ i = 1 M E [ log 2 ∑ i ′ = 1 M exp ( ∣ y − x i ∣ 2 − ∣ y − x i , ∣ 2 2 σ N 2 ) ] bits/sym. \begin{aligned} \text{C}& =\frac1M\sum_{i=1}^M\int_{y:-\infty}^{+\infty}P(y|x_i)\log_2\frac{P(y|x_i)}{\frac1M\sum_{i^{\prime}=1}^MP(y|x_{i^{\prime}})}\mathrm{d}y \\ &=\frac1M\sum_{i=1}^M\mathbb{E}\left[\log_2\frac{P(y|x_i)}{\frac1M\sum_{i^{\prime}=1}^MP(y|x_{i^{\prime}})}\right]\\ &=\frac1M\sum_{i=1}^M\mathbb{E}\left[\log_2M+\log_2\frac{P(y|x_i)}{\sum_{i^{\prime}=1}^MP(y|x_{i^{\prime}})}\right] \\ &=\log_2M-\frac1M\sum_{i=1}^M\mathbb{E}\left[\log_2\frac{\sum_{i^{\prime}=1}^MP(y|x_{i^{\prime}})}{P(y|x_i)}\right] \\ &=\log_2M-\frac{1}{M}\sum_{i=1}^M\mathbb{E}\left[\log_2\sum_{i'=1}^M\exp\left(\frac{|y-x_i|^2-|y-x_i,|^2}{2\sigma_N^2}\right)\right]\quad\text{bits/sym.} \end{aligned} C = M 1 i = 1 ∑ M ∫ y : − ∞ + ∞ P ( y ∣ x i ) log 2 M 1 ∑ i ′ = 1 M P ( y ∣ x i ′ ) P ( y ∣ x i ) d y = M 1 i = 1 ∑ M E [ log 2 M 1 ∑ i ′ = 1 M P ( y ∣ x i ′ ) P ( y ∣ x i ) ] = M 1 i = 1 ∑ M E [ log 2 M + log 2 ∑ i ′ = 1 M P ( y ∣ x i ′ ) P ( y ∣ x i ) ] = log 2 M − M 1 i = 1 ∑ M E [ log 2 P ( y ∣ x i ) ∑ i ′ = 1 M P ( y ∣ x i ′ ) ] = log 2 M − M 1 i = 1 ∑ M E [ log 2 i ′ = 1 ∑ M exp ( 2 σ N 2 ∣ y − x i ∣ 2 − ∣ y − x i , ∣ 2 ) ] bits/sym. 信道模型:y = a ⋅ x + n y=a\cdot x +n y = a ⋅ x + n
如果α \alpha α 服从α = ∣ α ∣ exp ( j φ ) \alpha=|\alpha|\exp(j\varphi) α = ∣ α ∣ exp ( j φ ) 的瑞利分布,则称为瑞利衰落信道。
快速衰落:每个x x x 都经过一个独立的衰落系数α \alpha α
准静态衰落:在传输一个代码字的过程中,α \alpha α 保持不变,并且从一个代码字到另一个代码字独立地变化。
假设发射机和接收机都知道衰落系数α \alpha α ,瞬时容量为
C ( α i ) = W l o g 2 ( 1 + α i 2 ⋅ E ( α i ) W N 0 ) C(\alpha_i)=W\mathrm{log}_2\left(1+\frac{\alpha_i^2\cdot E(\alpha_i)}{WN_0}\right) C ( α i ) = W log 2 ( 1 + W N 0 α i 2 ⋅ E ( α i ) ) E ( α i ) E(\alpha_i) E ( α i ) :信号功率取决于α i \alpha_i α i ,它是由特定衰落实现α i \alpha_i α i 所定义的最大可实现传输速率。
C = max E ( α i ) E [ W l o g 2 ( 1 + α i 2 ⋅ E ( α i ) W N 0 ) ] C=\max_{E(\alpha_i)}\mathbb{E}\left[W\mathrm{log}_2\left(1+\frac{\alpha_i^2\cdot E(\alpha_i)}{WN_0}\right)\right] C = E ( α i ) max E [ W log 2 ( 1 + W N 0 α i 2 ⋅ E ( α i ) ) ]
🐯
📔