Количество информации, передаваемой по каналу связи. Взаимная информация и ее свойства



ДИСКРЕТНЫЕ КАНАЛЫ С ШУМАМИ

Модель канала связи, в котором действуют шумы

 

Ввиду наличия шумов в канале передачи информации нарушается соответствие между переданными и принятыми сообщениями. Чем выше уровень шумов, тем сильнее нарушается это соответствие. Наиболее интересные и важные результаты теории информации были получены при рас­смотрении передачи информации по каналам связи с шумами. В этом случае безызбыточное кодирование приведет к безвозвратным поте­рям информации: искаженный символ нельзя ни обнаружить, ни испра­вить. Для борьбы с влиянием помех необходимо ввести избыточность в сигнал. Основываясь на интуитивных соображениях (например, на опыте многократного повторения), легко прийти к выводу, что при неограни­ченном повышении требований к малости вероятности ошибки избыточ­ность при любом способе кодирования должна неограниченно возрас­тать, а скорость передачи – стремиться к нулю. Здесь мы имеем яркий при­мер того, как сильно интуиция может привести к заблуждению. Шэннон показал, что существуют такие способы введения избыточности, при которых обеспечиваются одновременно и сколь угодно малая вероят­ность ошибки, и конечная (отличная от нуля) скорость передачи инфор­мации, причем эта скорость может быть сколь угодно близкой к про­пускной способности канала.

Воздей­ствие различного рода помех и собственных шумов (в общем случае будем говорить о шумах) на всякий реальный канал связи приводит к искажению передаваемых сигналов, в результате чего, получив сигнал на приемной стороне, мы не можем с полной достоверностью утверждать, какое сообщение было передано, ибо искажение сигнала шумами может привести к тому, что при передаче сообщения xiна приемной стороне будет зарегистрировано некоторое другое сообще­ние xj,где jне совпадает с i.

Пусть, например, множество возможных значений входного сигнала дис­кретного канала, образующие внешний алфавит системы, равно X = {xi , ..., хт}. Обозначим алфавит адресата (множество возможных значений принимаемого сигнала) через Y = {y1, у2, ..., ym}.Существует взаимно однозначное и извест­ное адресату отображение j: X ® Y,такое, например, как показано на рис. 8.1а.

 

 


Рис. 8.1. Передача сигналов по дискретному каналу

При отсутствии помех в канале связи ошибок не происходит, что позволяет по принятому символу yi точно (безошибочно) вос­становить символ xi . Действие помех разрушает однозначность ото­бражения j. Переданный символ xi в принципе при наличии помех может быть принят в виде любого символа алфавита Y (рис. 8.1б). В то же время если получен символ yi,то достоверно это означает лишь тот факт, что был передан один из возможных сим­волов алфавита X (рис. 8.1в).

Если нам известны априорные статистические характеристики источника сообщений, а также характеристики помех, воздействующих на канал, то, получив сообщение, мы можем лишь узнать новое апостериорное распределение вероятности передачи различных сооб­щений), с помощью которого можно вычислить вероят­ность правильного решения о том, какое из возможных сообщений было передано. Таким образом, работа информационного канала с математической точки зрения, в конечном счете, сводится к изме­нению на приемной стороне распределения вероятностей передачи различных сообщений.

Ясно, что на практике мы не можем довольствоваться лишь вы­числением апостериорного распределения, а аппаратура всегда строится таким образом, что в ней с тем или иным риском (вероятностью ошибки) принимается решение о том, какое сообщение было передано.

В схеме рис. 7.1 в случае воздействия помех нет однозначного соответствия между сигналами на входе канала связи (у)и сигналами на его выходе ( z ). При передаче сигнала yi выходные сигналы ( z ) могут принимать различные значения в зависимости от того, каков был шум в момент приема. В общем случае сигнал z может при­нимать непрерывное (бесконечно большое число) множество различ­ных значений.

Для ослабления действия шумов в информационную систему вводят два дополнительных устрой­ства— кодер II и декодер I (рис. 8.2). Назначение второго кодера состоит в реализации помехоустойчивого кодиро­вания сигналов.

 


Рис. 8.2. Блок-схема дискретного канала связи с шумами

 

 

Назначение декодера I состоит в том, чтобы восста­навливать по принятому сигналу соответствующий сигнал на выходе кодера I.

Функции, выполняемые кодером I и декодером II, та­кие же, как в схеме на рис. 7.1.

Рассмотрим передачу дискретных сообщений по каналу с шумом более подробно. Для этого воспользуемся представлением сигналов в линейном пространстве. Ранее была определена математическая модель сигнала в виде абстрактного математического пространства (пространства сигналов).

Естественно, что в пространстве сигнала точек должно быть не меньше, чем возможных сообщений источника информации. При равенстве числа точек и числа возможных сообщений между эле­ментами пространства сигналов и элементами множества возмож­ных сообщений устанавливается одно из возможных взаимно одно­значных соответствий – некоторое отображение множества воз­можных сообщений в пространство сигнала. Это отображение реа­лизуется в передатчике системы связи в форме соответствующего» правила преобразования сообщения в сигнал. Сигналы, представ­ляемые в пространствах, число элементов которых равно числу воз­можных сообщений, обладают низкой устойчивостью к помехам.

Для повышения помехоустойчивости процесса передачи инфор­мации в системах связи используют сигналы с большим числом со­стояний, чем это необходимо для кодирования всех возможных со­общений, и, следовательно, число точек соответствующих про­странств превышает число возможных сообщений. Тогда возникает вопрос: какие точки пространства сигнала сопоставлять возможным сообщениям источника информации?

На данный вопрос нельзя ответить однозначно. Ответ зависит от многих факторов: от статистических свойств потока сообщений, соотношения энергетических характеристик сигнала и помехи, ста­тистических свойств помехи и др. Тем не менее имеются некото­рые общие предпосылки.       

Кодер вносит в сигналы избыточность, увеличивая длитель­ность кодовых слов.

Число возможных последовательностей сразу резко увеличивается, но избыточность и состоит в том, что к отправке предназначаются не все из них, а лишь разрешенные. Число всевозможных последовательностей длины п равно 2 nH ( X ) , а число разрешенных к отправке равно 2пН < 2пН(X)(считаем, что энтропия исчисляется в битах); Н –энтропия на символ во множестве разрешенных к отправке после­довательностей («энтропия источника», или «скорость создания инфор­мации») , Н(Х)–энтропия на символ во множестве всевозможных последовательностей. В результате воздействия шумов какие-то из сим­волов отправленной последовательности подменяются другими и на приемный конец поступает другая, отличная от отправленной, после­довательность. Поскольку р(х\у)считается известным, каждой приня­той последовательности соответствует 2nH(X | Y)возможно отправленных.

Декодирование (т.е. принятие решения о том, какая последовательность была отправлена) можно выразить как разбиение всего множества Y принимаемых последовательностей на 2nH подмножеств, сопоставляе­мых с разрешенными к отправке: если, например, принят сигнал i-й группы, то считается, что был послан i-й разрешенный сигнал, который тут же выдается в «чистом» виде получателю.

 

Рассмотрим вопрос о введении избыточно­сти вторым кодирующим устройством на примере равно­мерного кода.

Пусть на выходе кодера I появляются двоичные кодовые слова одинаковой длины μ, соответствующие передаваемым сообщениям. Чтобы декодер I имел возможность обнаруживать и исправлять ошибки, 2-е кодирующее устройство по некоторому правилу добавляет μk корректирующих двоичных символов к каждому кодовому слову, поступающему на его вход. В результате получаются кодовые слова длиной μ + μk символов, которые затем передаются по линии связи с шумами, где некоторые символы искажаются (символ «1» подменяется символом «0», а символ «0» – символом «1»).

При этом число различных передаваемых кодовых слов меньше числа всех возможных кодовых слов, получаемых на выходе линии связи, т. е.

 

,                          (8.1)

 

где т – число различных кодовых символов,

N различных передаваемых кодовых слов ,это  разрешенные слова,  a N0 N кодовых слов – запрещенные. Если в результате ошибок переданное (разрешенное) кодовое слово перейдет в одно из запрещен­ных, ошибка будет обнаружена декодером I при условии, что в его запоминающем устройстве хранятся все разрешенные кодовые слова. Если же в результате оши­бок переданная комбинация превращается в одну из разрешенных, ошибка декодером I не обнаруживается.

Таким образом, корректирующий код, удовлетворя­ющий условию (8.1), способен в N(N0 N ) случаях обна­руживать ошибки из общего числа N0N . Однако если N << N0, разрешенные комбинации могут быть выбраны с учетом вероятностных свойств шума так, чтобы вероят­ность получения ошибочной разрешенной комбинации была очень мала. Другими словами, при N << N0 в ре­зультате ошибочного приема отдельных символов приня­тое кодовое слово, как правило, окажется запрещенным, что и укажет на ошибку.

    Для принятия однозначного решения о том, какое ко­довое слово было отправлено, в общем случае все мно­жество принимаемых кодовых слов N0разбивается по некоторому правилу на N подмножеств. Каждое подмноже­ство отождествляется с одним из разрешенных кодовых слов. Если, например, принятое кодовое слово попало в i-е подмножество, считается, что было передано i-е кодовое слово. Задача состоит в том, чтобы выяснить, сущест­вуют ли такие правила введения корректирующих симво­лов в передаваемые кодовые слова и разбиения на под­множества всех возможных принимаемых кодовых слов, при которых вероятность ошибочного приема будет как угодно мала, а скорость передачи как угодно близка к пропускной способности линии связи.

Эта задача в общем виде разрешается теоремами Шеннона о кодировании в присутствии шумов.

 

Количество информации, передаваемой по каналу связи. Взаимная информация и ее свойства

Количество информации, передаваемое по дискретному каналу связи, может быть определено через информационные характеристики ансамблей сообщений на входе и выходе канала, условные и совмест­ные энтропии этих ансамблей. Свойства энтропии, условной энтропии кладутся в основу при введении важной теоретико-информационной ха­рактеристики канала — взаимной информации между сообщениями на его входе и выходе. Действительно, поскольку при наличии статисти­ческой связи между элементами a и b ансамбля { AB , p ( a , b )} значение условной энтропии Н(А | В) в общем случае меньше безусловной и не превосходит ее, т.е. поскольку

                                                   (8.2)

можно полагать, что наличие сведений о значении b снижает в сред­нем первоначальную неопределенность относительно ансамбля А. На­зовем величину

                                                         (8.3)

количеством информации в сообщении b Î В о сообщении а Î А. (Предполагается, что в ансамбле {АВ,р(а; b )} не существует элемен­тов с нулевыми вероятностями.)

Поскольку     ,                              

то

                     (8.4)

т.е. количество информации в сообщении а о сообщении b равно ко­личеству информации в сообщении b о сообщении а. Введенное этим определением количество информации является симметрической функ­цией пары сообщений. Поэтому величину i(а; b) называют количеством взаимной информации между сообщениями а и b или просто взаимной информацией между этими сообщениями.

Формулам (8.3) и (8.4) можно придать симметрическую форму

                                                       (8.5)

Определенная таким образом взаимная информация между сооб­щениями a и b является случайной величиной на ансамбле АВ. Введем в рассмотрение ее математическое ожидание (см. § 5.7).

Математическое ожидание случайной величины i ( a , b ) называется средним количеством взаимной информации или просто взаимной ин­формацией между ансамблями А и В и обознчается через 1{А, В):

                                    (8.6)

Поскольку взаимная информация между сообщениями была опре­делена как разность собственных информации (безусловной и услов­ной), а математическое ожидание собственной информации является по определению энтропией ансамбля, то можно записать:

                                (8.7)

Основные свойства средней взаимной информации между дискретными ансамблями. Наряду с уже отмеченным свойством симметрии I(A;В) = I (В;А), сформулируем следующие свойства, вытекающие из определения (8.6) и свойств 2 и 3 условной энтропии (см.гл. 5):

— средняя взаимная информация неотрицательна:   1(А; В) ≥ О, причем равенство имеет место тогда и только тогда, когда элементы ансамблей а Î А и b Î В статистически независимы. Доказатель­ство этого утверждения можно провести, используя свойство ( ) на­турального логарифма.

— средняя взаимная информация между ансамблями A и В не пре­восходит значений энтропии этих ансамблей:

                          (8.8)

причем равенства в (8.8) имеют место, когда каждому фиксирован­ному значению а Î А с вероятностью 1 соответствует определенное значение b Î В и наоборот.

Одно из важнейших свойств средней взаимной информации за­ключается в том, что в процессе преобразований сигналов в различных блоках канала она не может увеличиваться [1]. Это свойство может быть истолковано следующим образом. Пусть В — множество возмож­ных сигналов на выходе некоторого блока канала, а А — множество различных передаваемых сообщений. Доказывается, что никакая обра­ботка наблюдаемых сигналов, при которой производится детерминиро­ванное или случайное их преобразование, не может увеличить средней информации об интересующем нас объекте. Количество информации сохраняется, если преобразование обратимо.


Дата добавления: 2019-02-26; просмотров: 747; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!