Вероятностный подход



Дать определение количества информации невозможно без рассмотрения понятия неопределенности состояния системы (энтропии системы). Действительно, получение информации о какой-либо системе всегда связано с изменением степени неосведомленности получателя о состоянии этой системы.

Введем в рассмотрение численную величину, измеряющую неопределенность – энтропию Н. Если в системе возможны N событий, то величины N и Н связаны между собой некоторой функциональной зависимостью:

H = f(N).

 

До выполнения опыта результат неизвестен, т.е. имеется некоторая неопределенность Н1. Обозначим неопределенность данного опыта после его выполнения Н2. За количество информации I, которое получено в ходе осуществления опыта, примем разность неопределенностей до и после опыта:

 

I = Н1- Н2.

 

Как только получен конкретный результат, имевшаяся неопределенность снята (Н2=0), количество полученной информации совпадает с первоначальной энтропией (I = Н). Иначе говоря, неопределенность, заключённая в опыте, совпадает с информацией об исходе этого опыта.

I = f(N).

Впервые вероятностный подход оценки сообщений был предложен в 1928 г. американским инженером Р. Хартли. Формула Хартли имеет вид:

 

I = log2 N,

 

где N – количество равновероятных событий;

I – количество информации в сообщении.

Смысл этой формулы заключается в том, что если имеется множество N равновероятных событий, то выбору (однозначной идентификации) одного события соответствует количество информации, равное log2 N.

При N = 2 количество информации будет равно единице. Таким образом, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (примером такого опыта может служить бросание монеты, при котором возможны два исхода: «орел» и «решка»). Такая единица количества информации называется бит.


Дата добавления: 2015-12-21; просмотров: 15; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!