Способы измерения информации.



Понятие количества информации естественно возникает, напри­мер, в следующих типовых случаях:

1. Равенство вещественных переменных а = b . заключает в себе ин­формацию о том, что а равно b . Про равенство а2 = b 2 можно сказать, что оно несет меньшую информацию, чем первое, т.к. из первого следу­ет второе, но не наоборот. Равенство а3 = b 3 несет в себе информацию по объему такую же, как и первое;

2. Пусть происходят некоторые измерения с некоторой погрешно­стью. Тогда чем больше будет проведено измерений, тем больше ин­формации об измеряемой сущности будет получено;

3. Матем. ожид.некоторой случ. велич. содержит в себе информацию о самой случ. велич. Для случ. велич., распределенной по нормальному закону, с известной диспер­сией знание матем. ожид. дает полную информацию о случ. велич.;

4. Рассмотрим схему передачи информации. Пусть передатчик опи­сывается случ. велич. Х, тогда из - за помех в канале связи на приемник будет приходить случ. велич. Y = X + Z . где Z это случ. велич. описывающая помехи. В этой схеме можно говорить о количестве информации, содержащейся в случ. велич. Y относительно Х. Чем ниже уровень помех (дисперсия Z мала), тем больше информации можно получить из Y. При отсутствии помех Y содержит в себе всю информацию об X .

В 1865 г. немецкий физик Рудольф Клаузиус ввел в статистиче­скую физику понятие энтропии или меры уравновешенности системы.

В 1921 г. основатель большей части математической статистики, англичанин Роналд Фишер впервые ввел термин "информация" в ма­тематику, но полученные им формулы носят очень специальный харак­тер.

В 1948 г. Клод Шеннон в своих работах по теории связи выпи­сывает формулы для вычисления количества информация и энтропии. Термин "энтропия" используется Шенноном по совету патриарха ком­пьютерной эры фон Неймана, отметившего, что полученные Шенноном для теории связи формулы для ее расчета совпали с соответствующи­ми формулами статистической физики, а также то, что "точно никто не знает" что же такое энтропия.

 


Лекция 3. Понятие энтропии. Семантическая информация.

Смысл энтропии Шеннона.

Энтропия д.с.в. - это минимум среднего количества бит, которое нужно передавать по каналу связи о текущем значении данной д.с.в.

Рассмотрим пример (скачки). В заезде участвуют 4 лошади с рав­ными шансами на победу, т.е. вероятность победы каждой лошади рав­на 1/4. Введем д.с. в. Х, равную номеру победившей лошади. Здесь НХ = 2. После каждого наезда по каналам связи достаточно будет передавать два бита информации о номере победившей лошади. Ко­дируем номер лошади следующим образом:

1 00, 2 01, 3 10, 4 11.

Если ввести функцию L ( X ), которая возвращает длину сообщения, ко­дирующего заданное значение X , то матем. ожид. ML ( X ) это средняя длина сообщения, кодирующего X . Можно формально определить L через две функции L ( X ) = len ( code ( X )), где code ( X ) каждому значению X ста­вит в соответствие некоторый битовый код, причем, взаимно однознач­но, a len возвращает длину в битах для любого конкретного кода.L это функция от д.с.в., т.е. тоже д.с.в. В этом примере ML ( X ) = НХ.

Пусть теперь д.с.в. X имеет следующее распределение

Р(Х = 1) = , Р(Х = 2) = , Р(Х = 3) = Р(Х = 4) =

т.е. лошадь с номером 1 это фаворит. Тогда

Закодируем номера лошадей; 1 0, 2 10, 3110, 4 111, т.е. так, чтобы каждой код не был префиксом другого кода (подобное коди­рование называют префиксным). В среднем в 16 заездах 1-я лошадь должна победить в 12 из них. 2-я в 2-х. 3-я в 1-м и 4-я в 1-м, Таким образом, средняя длина сообщения о победителе равна (1* 12+2* 2+3*1+3* 1) /16 = 1.375 бит/сим. или матем. ожид. L (Х). Дей­ствительно, L ( X ) сейчас задается следующим распределением вероят­ностей: Р( L (Х) = 1) = ¾, P ( L [ X ) = 2) = 1/8, P ( L ( X ) = 3) = 1/8.

Следовательно,

ML ( X )= = 1.375 бит/сим

Итак, ML ( X ) > НХ.

Можно доказать, что более эффективного кодирования для двух рассмотренных случаев не существует.

То, что энтропия Шеннона соответствует интуитивному представ­лению о мере информации, может быть продемонстрировано в опыте по определению среднего времени психических реакций. Опыт заклю­чается в том, что перед испытуемым человеком зажигается одна из N лампочек, которую он должен указать. Проводится большая серия испытании, в которых каждая лампочка зажигается с определенной ве­роятностью где i -это номер лампочки. Оказывается, среднее время, необходимое для правильного ответа испытуемого, про­порционально величине энтропии - , а не числу лампочек N, как можно было бы подумать, В этом опыте предполагается, что чем больше информации будет получено человеком, тем дольше будет время ее обработки и, соответственно, реакции на нее.

 


Дата добавления: 2022-01-22; просмотров: 94; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!