ИНФОРМАЦИЯ И НЕОПРЕДЕЛЁННОСТЬ



   Информация - это сведения или данные, не содержащая неопределённость для адресата. Если всё же информация содержит некоторую неопределённость, то её можно воспринять только с некоторой вероятностью. Поэтому, при наличии неопределённости, получатель информации каким-либо образом добивается свести к минимуму саму неопределённость. Если при этом удаётся получателю информации исключить неопределённость полностью, то он владеет информацией вполне. Вопросы о том, как это можно делать на практике, являются содержанием данной главы.

 

КОЛИЧЕСТВЕННАЯ МЕРА НЕОПРЕДЕЛЁННОСТИ

Для сравнения неопределённостей, рассмотрим следующие примеры или опыты a, b и g, содержащие неопределённости H(a), H(b) и H(g) соответственно:

   1. Определить очередного чемпиона мира по шахматам (опыт a).

2. Определить номер лотерейного билета, на который выпадет наибольший выигрыш в предстоящем тираже лотереи (опыт b).

   3. Определить следующего президента РФ (опыт g).

Очевидно, степень неопределённости каждого опыта отличается от двух других, причём скорее всего имеют место неравенства

                          H(b) > H(a) > H(g),

где H(a), H(b) и H(g) - количественные меры неопределённостей (или энтропии) опытов a, b и g соответственно. В частном случае, если для некоторого опыта d имеет место равенство H(d) = 0, то говорят, что опыт d достоверный, т.е. он не содержит неопределённости. Другими словами неоределённость опыта есть не что иное как недостача информации или отрицательная информация.

I. Формула Хартли. Пусть a - произвольный опыт с k равновероятными исходами Аk

                           События А 1 А 2 . . . А k

                   Вероятности 1/ k 1/ k . . . 1/ k .

При k = 1 H(a) = 0, а при возрастании k H(a) также возрастает, т.е.

                                     H(a) = f (k) ,

где f - некоторая функция от k. С другой стороны, если b независимый от a другой опыт с l равновероятными исходами Вl, то для сложного опыта ab, состоящего в одновременном выполнении опытов a и b, естественно считать что степень неопределённости опыта ab равна сумме неопределённостей, характеризующих опыты a и b, т.е.

                                   H(ab) = H(a) + H(b).

Таким образом, в качестве функции f можно выбрать логарифмическую функцию и считать, что

                                     H(a) = log2k .

Это есть формула Хартли и она представляет собой меру неопределённости относительно опыта a, содержащимся в опыте a и имеющим два равновероятных исхода (например,"да" или "нет"). Другими словами, H(a) это то количество информации (за единицей измерения количества информации считается бит), с помощью которого неопределённость опыта a превращается в достоверность.

Так, например, для угадывания задуманного числа в диапазоне от 1 до 8 необходимо максимум 3 бит информации, т.е. необходимо задать три вопроса.

II. Формула Шеннона. Пусть a - произвольный опыт с к неравновероятными исходами Ак:

                           События А 1 А 2 . . . А k

                   Вероятности Р(А1) Р(А2) . . . Р(Аk) .

Тогда                            k

                      H(a) = - å P(A i)log2P(A i)

                                                          i = 1

- есть мера неопределённости опыта a по Шеннону. В частности, при Р(А i) = 1/ k , из формулы Шеннона следует формула Хартли.

 

   3.1.1. Доказать, что H(ab) = H(a) + H(b).                  

3.1.2. Сколько вопросов необходимо задать студентам академической группы преподавателю, чтобы определить старосту этой группы (ответы на вопросы преподавателя могут быть либо "да" либо "нет").

   3.1.3. Рассмотреть задачу 3.1.2. в случае одного вопроса.

   3.1.4. Пусть х- элемент множества М мощности m. Какое количество

 информации необходимо для определения элемента х ?

   3.1.5. Пусть х 1 и х 2 - два произвольных элемента множеств М 1 и М 2 мощностей m 1 и m 2 соответственно. Какое количество информации необходимо для одновременного определения элементов х 1 и х 2 ?

3.1.6. Пусть имеется 27 золотых монет, из которых одна фальшивая (легче настоящих), и весы с чашками. Сколько взвешиваний необходимо произвести, чтобы определить фальшивую монету ?

   3.1.7. Доказать, что любого опыта a H(a) ³ 0, причём H(a) = 0 тогда и только тогда, когда одна из вероятностей равна 1, а остальные равны 0.

   3.1.8. Доказать, что H(a) ≤ log2k , где k - число исходов опыта a , причём равенство достигается лишь в случае, когда исходы равновероятны.

   3.1.9. Какими свойствами обладает H(a) , если a имеет два исхода ?

 

УСЛОВНАЯ НЕОПРЕДЕЛЁННОСТЬ.

КОЛИЧЕСТВО ИНФОРМАЦИИ

  Пусть a и b - два произвольных опыта с k и l исходами А k , В l соответственно. Тогда если a и b независимы, то

                                          H(ab) = H(a) + H(b) ,

а если же a и b зависимы, то

                                          H(ab) = H(a) + H a(b) ,

где Ha (b) - условная неопределённость опыта b при условии выполнения опыта a и определяется равенством k

                                         Ha(b) = å P(A i)H A i (b) .

                                                                                   i = 1

Здесь H A i (b) - условная неопределённость опыта b при условии исхода A i  и определяется формулой:  l

                         H A i (b) = - å PA i( B j ) log 2 PA i( B j ) , i = 1 , k .

                                                                    j = 1

Очевидно, если a и b независимы , то Ha(b) = H(b) , и Ha(b) ≤ H(b) , если a и b зависимы.

  Имеет место также равенство

                              H(ab) = H(ba) .

  Рассмотрим разность

                             I (a , b) = H(b) - Ha (b) ,

которая указывает, насколько исход опыта a уменьшает неопределённость опыта b. Число I (a , b) называется количеством информации относительно опыта b, содержащимся в опыте a.

В частности, при a =b имеем I (a , a ) = 0, что можно трактовать как количество информации об опыте a, содержащимся в самом себе . Если же a и b независимы, то

                             I (a , b) = 0 ,

т.е. в целом

                             I (a , b) ≥ 0 ,

что можно трактовать примерно так: от всего, чему учат в университете, вреда не будет, а в худшем случае просто не будет пользы.

Так как

                          I (a , b) = I (b, a ) ,

то I (a , b) можно назвать также взаимной информацией двух опытов a и b

друг относительно друга. Далее, так как

                          H(ab) = H(a) + H a(b) ,

то

                          I (a , b) = H(a) + H(b) - H(ab) ,

следовательно,               k l

                       I (a , b) = Σ Σ P(A iB j) log 2 P(A iB j) /( P(A i ) P(B j)) .

                                                          i = 1 j = 1

Таким образом, мы получили окончательную формулу относительно количества информации I (a , b).

 

3.2.1. Доказать, что если a и b произвольные опыты, то;

      а) H(ab) = H(a) + Ha(b) ;

         б) H(ab) ≤ H(a) + H(b) ;

      в) 0 ≤ Ha(b) ≤ H(b) ;

      г) I (a , b) = I (b, a ) ;

      д) I (a , b) ≤ H(a) ;

3.2.2. Вывести формулу относительно I (a , b) .

3.2.3. Пусть опыт b состоит в извлечении одного шара из урны, содержащий m чёрных и n белых шаров, опыт a k - в предварительном извлечении из той же урны (без возвращения обратно) k шаров. Чему равна неопределённость опыта b и информация об опыте, содержащаяся в опытах a6,

a13 и a14 ?

3.2.4. Пусть из партий в n деталей, изготовленных на конвейере, для выборочного контроля изъяты m деталей. Обозначим через a процент брака всей партии, а через b - процент брака в выборке. Определить I (a , b).

  3.2.5. (О городах лжецов и честных людей). Пусть известно, что жители некоторого города А всегда говорят правду, а жители соседнего города Б всегда обманывают. Наблюдатель Н знает, что он находится в одном из этих двух городов, но не знает, в каком именно. Путём опроса встречного ему требуется определить, в каком городе он находится, или в каком городе живёт его собеседник (жители А могут заходить в Б и обратно), или то и другое вместе. Спрашивается, каково наименьшее число вопросов, которые должен задать Н (на все вопросы Н встречный отвечает лишь "да" или "нет").

ПЕРЕДАЧА ИНФОРМАЦИИ

Ещё раз вернёмся к общей схеме передачи информации, рассматривая реальные сообщения как некоторые опыты с соответствующими таблицами распределения вероятностей в них отдельных букв или сочетания букв.

В частности, если х и х' - переданное и искажённое сообщения соответственно, то определим количество информации I(x' , x) - выхода канала относительно его входа как:

                                 I(x' , x) = Н(х) - Нх ' (х) ,

где Н(х), Н(х') энтропии сообщений х и х' соответственно.

   Значение 

                                   C = max I(x' , x)

                                                                     х

называется пропускной способностью канала, т.е. она характеризует максимальное количество информации, которое может быть передано через канал за один такт времени. А в самом деле, пропускная способность канала является верхней границей скорости R надёжной передачи информации, причём к этой границе можно подойти сколь угодно близко.

Теорема 1.(о кодировании). Для любого числа R, меньшего пропускной способности С канала, и любого e>0 существует способ блоковой передачи со скоростью, не меньшей R, и вероятностью ошибки Р(е), не превосходящей e.

В то же время всякий способ передачи информации со скоростью, большей пропускной способности, приводит к тому, что вероятность ошибки будет больше некоторой фиксированной величины.

Теорема 2.(обращение теоремы кодирования). Если величина R превосходит пропускную способность канала С, то найдётся константа e0 (зависящая от R и C) такая, что при любом способе блоковой передачи информации со скоростью, не меньшей R, выполнено неравенство

                                       Р(е)³ e0.

Обозначим через I(a i) количество информации, содержащееся в символе a i и определим его как:

                                       I( a i ) = - log2 P(a i) ,

где P(a i) - вероятность появления символа a i в самом тексте сообщения.

  Если же текст сообщений записан на некотором естественном языке

( а его можно рассматривать как естественный код, обнаруживающий и исправляющий ошибки ), то каждая буква этого языка имеет свою частоту встречаемости в тексте ( так, например, в русском языке буквы о , е , ё гораздо чаще встречаются ( Ро = 0.09 , Ре,ё = 0.07) , чем буквы э и ф ( Рэ= 0.003, Рф = 0.002 )) и поэтому неопределённость HL естественного языка определяется как                   m

                                     HL= - å P( a i ) log2 P( a i ) ,

                                                                         i = 1

а избыточность СL соответственно как

                                      СL= 1 - HL/ log2 m ,

где m - количество букв естественного языка.

  Очевидно, что 0 ≤ СL ≤ 1, следовательно, при оптимальном кодировании часть текста можно без ущерба для понимания опустить.

Так, например, СL= 0.5 для литературного английского языка, а избыточность других языков несколько меньше.

Отметим, что избыточность языка не является недостатком, а скорее преимуществом, так как, например, если СL= 50% , то это означает что по половине искажённого текста можно восстановить весь текст.

3.3.1. Определить пропускную способность ДСК.

3.3.2. Найти I(x' , x) для ДСК.

3.3.3. Определить избыточность и неопределённость русского языка.

3.3.4. Определить количество информации букв английского языка.

3.3.5. Доказать теоремы Шеннона для блочных кодов.

3.3.6. Восстановить текст:

      а) С??зд ц?ли??м ? п?лн???ью од??ри? м??опр??т?я ц? пар??? ?о ??рьб? ? ?а?о?ом;

          б) ?об?ка ?ае? ка?ав?н ???ает.

         

 

                            

 

 

                                     

ОГЛАВЛЕНИЕ

 

Введение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3

1. Алфавит дискретных устройств . Конечные поля . . . . . . . . . . 4

 1.1. Простое поле Галуа GF(P) . . . . . . . . . . . . . . . . . . . . . 4

1.2. Составное поле Галуа GF(Pn) . . . . . . . . . . . . . . . . . . . 6

2. Кодирование информации . . . . . . . . . . . . . . . . . . . . . . .9

     2.1. Основные понятия . Примеры кодов . . . . . . . . . . . . . . . 9

     2.2. Линейные коды . Способы их задания . . . . . . . . . . . . 15

     2.3. Свойства линейного кода . Коды Хэмминга . . . . . . . . . . 22 

     2.4. Циклические коды . . . . . . . . . . . . . . . . . . . . . . . . 27

     2.5. Коды БЧХ , исправляющие две ошибки . . . . . . . . . . . . .32

     2.6. Нелинейные коды . Коды Адамара . . . . . . . . . . . . . . . .36

     2.7. Границы мощности кодов . . . . . . . . . . . . . . . . . . . . 40

3. Информация и неопределённость . . . . . . . . .  . . . . . . . . . 44

     3.1. Количественная мера неопределённости . . . . . . . . . . . .45

     3.2. Условная неопределённость . Количество информации . . . . .47

     3.3. Передача информации . . . . . . . . . . . . . . . . . . . . . .50

 

 

                                        Осипян Валерий Осипович

 

     ЭЛЕМЕНТЫ ТЕОРИИ ПЕРЕДАЧИ ИНФОРМАЦИИ

 

              

 

Редактор Т.В.Шилова

Технический редактор И.А. Зиновская

Корректор М.Е. Шулепова

 

      ЛР № 200378 от 22.01.97

 


Подписано в печать 29.01.97.

Формат 60´841/16. Бумага тип. № 3.

Печать трафаретная. Усл. печ. л. 2,75.

Уч.-изд. л. 2,7. Тираж 300 экз. Заказ №

 


 Кубанский государственный университет

350040 г. Краснодар, ул. Ставропольская, 149.

Тип. КубГУ, ул. Октябрьская, 25.

 


Дата добавления: 2019-02-13; просмотров: 1727; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!