Пропускная способность дискретного канала связи с шумами
Соотношения (7.1)–(7.3), определяющие скорость передачи и пропускную способность канала и линии связи, являются общими, и поэтому они применимы как для дискретных, так и для непрерывных каналов, как для каналов без шумов, так и для каналов с шумами. Разница заключается в способе вычисления количества информации, содержащейся в последовательности выходных сигналов ZT , о входных сигналах YT , т.е. I(ZT , YT).
Для вычисления I(ZT , YT) можно использовать соотношения (5.30) или (5.31). Из этих соотношений получаем
I(ZT,YT) = H(ZT) – H(ZT | YT) = H(YT) – H(YT | ZT). (8.9)
Будем полагать, что шумы, действующие в канале связи, имеют эргодический характер. Это значит, что, например, при длительной многократной передаче сигнала у i сигналы z на выходе канала с вероятностью, как угодно близкой к единице, образуют типичную последовательность. То же самое справедливо и при передаче эргодической последовательности различных сигналов у. При таком условии выход канала связи может рассматриваться как эргодический источник.
Для последовательности длительностью Т, содержащей М сигналов такого источника, имеем
H(ZT) = MH(Z), (8.10)
где H ( Z ) – энтропия выходного сигнала или, точнее, энтропия выхода канала связи, рассматриваемого как эргодический источник.
Величина H ( Z ) может быть подсчитана по формуле, аналогичной (6.10),
|
|
H(Z) = (8.11)
При этом Ql и Qk обозначены характерные состояния выхода канала связи.
Такое же соотношение получим и для вычисления условной энтропии
H(ZT| YT) = MH(Z| Y), (8.12)
где H ( Z|Y ) – энтропия выходного сигнала канала связи при известных входных сигналах.
Повторяя рассуждения, приведенные при выводе (6.10), получим
H(Z|Y) = (8.13)
где
(8.14)
При этом p ( Ql | Qk , yj ) – условная вероятность перехода выхода канала связи из состояния Qk в состояние Ql при передаче сигнала yj .
Из (8.9), (8.10) и (8.12) следует, что
I(ZT, YT) = MH(Z) – MH(Z | Y).
При определении скорости передачи информации по (7.3’) учтем, что ; при этом, как и ранее, - средняя длительность сигнала одного сообщения. Тогда получим
(8.15)
где
и
Повторяя рассуждения, аналогично найдем
(8.16)
В последнем равенстве - поток информации на выходе кодирующего устройства, характеризует потерю информации, обусловленную действием помех.
|
|
Из найденных соотношений и (7.3) следует, что пропускная способность канала связи при наличии помех может быть определена из условия
(8.17)
или
(8.18)
Оба определения равноправны и дают одно и то же значение Сс. Использование того или иного определения дикдуется удобством анализа. При отыскании оптимальных статистических характеристик передаваемых сигналов (у) необходимо иметь в виду следующее:
Характерные состояния выхода канала связи (Qk , Ql) могут определяться двумя обстоятельствами:
а) наличием фиксированных ограничений, т.е. запретов, накладываемых на допустимую последовательность передачи различных сигналов, и
б) коррелятивными связями между символами, вызываемыми действием шумов.
Каналы, у которых на каждый передаваемый сигнал (символ) шум воздействует независимоот того, какие сигналы передавались ранее, называются каналами без памяти. В этих каналах шумы не вызывают дополнительных коррелятивных связей между сигналами. В настоящее время основные выводы теории информации получены применительно к каналам без памяти.
|
|
Проиллюстрируем вычисление пропускной способности канала на следующем примере.
Пусть требуется определить пропускную способность канала связи, по которому передаются двоичные сигналы со скоростью vx, если вероятность превращения в результате действия помех каждого из этих сигналов в противоположный равна р (вероятность правильного приема, следовательно, 1 – р). Передаваемые сигналы предполагаются независимыми.
Рис. 8.3. Двоичный симметричный канал
В этом случае алфавит Х и алфавит Y состоят из двух символов: Х = (х1,х2), Y =(у1, у2). Диаграмма рис. 8.3 показывает возможные варианты передачи и соответствующие им вероятности. Такой канал называется симметричным.
Средняя условная энтропия
Но p(x1) + p(x2)=1.
Поэтому
H(YôX)= - plog p – (1 – p)log (1 – p).
Отсюда видно, что H(YôX)не зависит от характеристик источника, т.е. от р(х1)и р(х2),и определятся только помехами в канале передачи.
Максимальное количество информации на один символ получается, следовательно, при таком распределении вероятностей р(х i),при котором оказывается максимальным член H(Y). Но H(Y)не может превосходить величины
|
|
Hm(Y)= log m =log 2
(что достигается при р(х1)= р(х2)=1/2.Поэтому имеем:
max{I(Y, X) = log 2 + plog p + (1 – p)log (1 – p)
и, следовательно, пропускная способность
C = vx max {I(Y, X)} =
= vx[log 2 + plog p + (1– p)log (1 – p)]. (8.19)
Отсюда следует, в частности, что при p = 0,т.е. при отсутствии шумов в канале, имеем максимальное значение С
Сmax = vx log 2.
При р =1 также имеем детерминированный случай, когда сигналы х1переводятся в сигналы х2 и наоборот с вероятностью, равной единице. При этом пропускная способность канала также максимальна.
Минимальное значение пропускная способность имеет при p =1/2(Cmax = 0 ).
Если на вход канала подаются сигналы от всех возможных источников дискретных сообщений с одинаковым количеством символов в единицу времени u = 1/T и числом элементарных символов т, то выражение для С и, соответственно, для пропускной способности канала в расчете на единицу времени выглядит так:
(8.20)
Отсюда при т = 2 имеем (8.19).
Дата добавления: 2019-02-26; просмотров: 189; Мы поможем в написании вашей работы! |
Мы поможем в написании ваших работ!