Энтропия дискретного источника с зависимыми



Сообщениями

Ранее при определении энтропии предполагалось, что каждое сооб­щение (буква или слово) выбирается независимым образом. Рассмотрим более сложный случай, когда в источнике сообщений имеются корреляци­онные связи. В так называемом эргодическом источнике выбор очередной буквы сообщения зависит от конечного числа предшествующих букв n. Ма­тематической моделью такого источника является марковская цепь n-го по­рядка, у которой вероятность выбора очередной буквы зависит от n предшествующих букв и не зависит от более ранних, что можно записать в виде следующего равенства:

p(xi /xi-1,xi-2, ... xi-n)= p(xi /xi-1,xi-2, ... xi-n, ... xi-n-c),              (7)

где с - произвольное положительное число.

Если объем алфавита источника равен k, а число связанных букв, которые необходимо учитывать при определении вероятности очередной буквы, равно порядку источника n, то каждой букве может предшествовать M=kn различных сочетаний букв (состояний источника), влияющих на вероятность появления очередной буквы xi на выходе источника. А вероятность появления в сообщении любой из k возможных букв определяется условной вероятностью (7) с учётом предшествующих букв, т.е. с учётом M возможных состояний. Эти состояния обозначим как q1,  q2... qM.

Сказанное поясним двумя простыми примерами.

Пример 1.  Пусть имеется двоичный источник (объём алфавита k=2) -например, источник, выдающий только буквы а и б ; порядок источ­ника n=1. Тогда число состояний источника M=kn=21=2(назовём их со­стояния q1 и q2). В этом случае вероятности появления букв а и б будут опреде­ляться следующими условными вероятностями:

p(à/q1=а),    p(а/q2=б), p(á/q1=а),    p(á/q2=б),

ãäå q1=а - 1-е состояние q1,

    q2=б - 2-е состояние q2.

Âåðîÿòíîñòè ñîñòîÿíèé èñòî÷íèêà ðàâíû p(q1)=p(a), p(q2)=p(á).

Пример 2. Пусть по-прежнему k=2 (буквы а и б), однако число связанных букв n=2. Тогда M=22=4 (4 возможных состояния: (а, а)=q1, (а, б)=q2, (б,а)=q3, (б, б)=q4 .

В этом случае имеем дело со следующими условными вероятностями:

p(а/а,а); p(а/а,б); p(а/б,а); p(а/б,б); p(б/а,а) . . . и т.д.

Вероятности состояний определяются равенствами p(q1)=p(a,a), p(q2)=p(a,б), p(q3)=p(б,a), p(q4)=p(б,б).

Энтропия эргодического дискретного источника определяется в два этапа.

1. Вычисляется энтропия источника в каждом из M состояний, считая эти состояния известными:

для состояния q1 ;

для состояния q2 ;

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

для состояния qM .

2. Далее находим H(x) путём усреднения по всем состояниям q:

                       .

Окончательно получаем

                       .              (8)

    При наличии кор­реляционных связей между буквами в эргодическом источнике энтропия уменьшается, так как при этом уменьшается неопределённость выбора букв и в ряде случаев часть букв можно угадать по предыдущим или ближайшим буквам.

Вопросы к разделу 3

1. Что такое эргодический дискретный источник?

2. Что такое состояние эргодического дискретного источника, как вычислить количество состояний?

3. Как вычисляется энтропия эргодического источника?

4. Когда энтропия эргодического источника максимальна? Чему равен этот максимум?

Избыточность источника

 

    Как было показано в разделах(2 и 3), энтропия максимальна при равновероятном выборе элементов сооб­щений и отсутствии корреляционных связей. При неравномерном распределении вероятностей и при наличии кор­реляционных связей между буквами энтропия уменьшается.

Чем ближе энтропия источника к максимальной, тем рациональнее работает источник. Чтобы судить о том, насколько хорошо использует источник свой алфавит, вводят понятие избыточности источника сообщений

 

                                                     (9)

или

                           .

Наличие избыточности приводит к загрузке канала связи передачей лишних букв сообщений, которые не несут информации ( их можно угадать и не передавая).

Однако, преднамеренная избыточность в сообщениях иногда используется для повышения досто­верности передачи информации — например, при помехоустойчивом кодировании в системах передачи информации с исправлением ошибок. Большую избыточность имеет любой разговорный язык. Например, избыточность русского языка (как и других) - около 50%. Благо­даря избыточности облегчается понимание речи при наличии дефектов в произношении или при искажениях речевых сигналов в каналах связи.

 

Вопросы к разделу 4

1. Что такое избыточность источника?

2. Какие факторы увеличивают избыточность источника?

3. Чему равна избыточность русского языка?

4. Большая избыточность – это хорошо или плохо для систем передачи информации по каналам связи?

 

 

Производительность источника

 

Производительность источника определяется количеством информа­ции, передаваемой в единицу времени. Измеряется производительность ко­личеством двоичных единиц информации (бит) в секунду. Если все эле­менты сообщения имеют одинаковую длительность t, то производитель­ность

                                 .                                             (10)

Если же различные элементы сообщения имеют разную длительность, то в приведённой формуле надо учитывать среднюю длительность , рав­ную математическому ожиданию величины t :

                       .

Однако в последней формуле p(ti) можно заменить на p(xi) (вероятность i-го сообщения), так как эти вероятности равны. В результате получаем

                                 ,                                               (11)

а производительность источника будет равна

                                 .                                              (12)

Mаксимально возможная производительность дискретного источника равна        .                   (13)        

Для двоичного источника, имеющего одинаковую длительность эле­ментов сообщения (k=2, ) имеем

                       бит¤с.                        (14)

При укрупнении алфавита в слова по n букв, когда k=2n, , имеем

                        бит¤с,

что совпадает с формулой (14).

Таким образом, путём укрепления алфавита увеличить производи­тельность источника нельзя, так как в этом случае и энтропия, и длитель­ность сообщения одновременно возрастают в одинаковое число раз (n).

Увеличить производительность можно путём уменьшения длительно­сти элементов сообщения, однако возможность эта ограничивается полосой пропускания канала связи. Поэтому производительность источника можно увеличить за счет более экономного использования полосы пропускания, например, путем применения сложных многоуровневых сигналов.

 

Вопросы к разделу 5

1. Что такое производительность дискретного источника, чему она равна?

2. Когда производительность источника максимальна, чему она равна?

3. Можно ли увеличить производительность источника путём укрупнения алфавита?

4.Как можно увеличить производительность источника при заданной длительности элементов сообщения?


6.Совместная энтропия двух источников

 

Пусть имеется два дискретных источника с энтропиями H(x) и H(y) и объёмами алфавитов k и l (рис. 2). 

               

Объединим оба эти источника в один сложный источник и определим совместную энтропию. Элементарное сообщение на выходе системы содержит элементарное сообщение xi и сообщение yj. Алфавит сложной системы будет иметь объём k×l, а энтропия будет равна

    ,                                           (15)

или

    .                                      (16)

По теореме умножения вероятностей

    p(x, y)=p(x)×p(y/x)=p(y)×p(x/y).

Подставляя эти соотношения в (15), получим

.       (17)

Аналогично можно получить

    .                                             (18)

Здесь H(x) и H(y) - собственная энтропия источников x и y;

                                  (19)

- условная энтропия источника y относительно источника x. Она показывает, какую энтропию имеют сообщения y, когда уже известно сообщение x.

Если источники независимы, то p(y/x)=p(y) и H(y/x)=H(y). В этом случае H(x, y)=H(x)+H(y).

Если источники частично зависимы, то H(x, y)<H(x)+H(y).

Если источники полностью зависимы (x и y - cодержат одну и ту же информацию), то H(y/x)=0 и H(x, y)=H(x)=H(y).

 

Вопросы к разделу 6

1. Что такое совместная энтропия двух источников?

2. Что такое условная энтропия, её физический смысл?

3. Чему равна совместная энтропия двух независимых дискретных источников и двух полностью зависимых источников?


Дата добавления: 2018-02-15; просмотров: 1176; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!