Порядок выполнения лабораторной работы



Лабораторная работа № 1

Информационные характеристики дискретных информационных систем

Основные сведения об информационных характеристиках

Дискретных случайных систем

Сведения, являющиеся объектом хранения, передачи и преобразования, называют информацией. Для измерения количества информации о некоторой дискретной случайной системе Х используется энтропия, которая показывает степень неопределенности со­стояния этой системы. К.Шеннон ввел следующую формулу для определения энтропии:

,

где x1, x2, … x i,…, x n – возможные состояния системы X, p(x1), (x1), …, p(xi),…, p(xn) – вероятности состояний, , M – оператор математического ожидания. Примерные значения вероятностей состояний можно получить по формуле

, i = 1, 2, …, n,

где ni = n(xi) – число наблюдений системы X в состоянии xi или частота состояния xi.

Свойства энтропии:

1. энтропия есть величина вещественная, ограниченная и неотрицатель­ная;

2. энтропия минимальна и равна нулю, если хотя бы одно из состояний сис­темы достоверно известно, т.е. вероятность одного из состояний равна 1;

3. энтропия максимальна и равна логарифму числа состояний, если состоя­ния системы равновероятны, т.е. вероятности всех состояний равны между собой;

4. энтропия бинарных величин изменяется от 0 до 1 – она равна 0, если вероятность одного из состояний равна 0, затем возрастает и достигает максимума при вероятностях 0.5.

Пусть имеется сложная система, состоящая из двух систем X и Y:

X = (x1, …, xi, …, xn ), Y = (y1, … , yj, …, ym ).

 Ее поведение определяется матрицей вероятностей совместных событий  P(X, Y) = [p(xi, yj)]n´m=[pij]n´m:

.

Энтропия сложной системы вычисляется по формуле:

.

В случае независимых систем X и Y энтропия сложной системы рассчитывается следующим образом:

H(X, Y) = H(X) + H(Y)

В случае зависимых систем X и Y можно определить условную частную энтропию H(Y/xi) системы Y относительно от­дельного события xi:

,

где p(xi/yj) – условные вероятности, задаваемые матрицей:

.

Аналогично можно определить и условную частную энтропию H(X/yj) системы X относительно от­дельного события yj:

,

где p(yj/xi) – условные вероятности, задаваемые матрицей:

.

Если частную условную энтропию ус­реднить по всем состояниям xi с учетом вероятности появления каждого из состояний p(xi), то можно найти полную условную энтропию системы Y отно­сительно системы X:

,

,

.

Аналогично рассчитывается условная энтропия системы X отно­сительно системы Y:

,

,

.

В случае зависимых систем X и Y энтропию сложной системы можно вычислить с помощью соотношений:

H(X, Y) = H(X) + H(Y/X) = H(Y) + H(X/Y).

Энтропию сложной системы также называют энтропией объединения. Для нее справедливо неравенство:

H(X, Y) ≤ H(Y) + H(X).

При передаче сообщений с информацией о какой-либо системе происходит уменьшение неопределен­ности: чем более неоп­ределенным было состояние системы, тем большее количество информации содержится в сообщении. Поэтому количество информации о системе X измеряют уменьшением энтропии:

I(X) = H1(X) – H2(X),

где H1(X) – энтропия системы до наблюдения, H2(X) – энтропия в результате наблюдения. Если в результате наблюдения неопределенность исчезает, т.е. H2(X) = 0, то количество информации будет равно исходной энтропии системы:

I(X) = H1(X),

т.е. количество информации, приобретаемое при полном выясне­нии состояния некоторой системы, равно энтропии этой системы.

Сообщение, которое требуется передать, можно представить в виде последовательности символов некоторого первичного алфавита. В свою очередь, при передаче этих символов они могут быть закодированы с помощью символов некоторого вторичного алфавита. Поэтому следует различать количество информации, которое вычисляется относительно первичного алфавита, и объем информации, который вычисляется относительно вторичного алфа­вита. Количество информации зависит от вероятностных характеристик пер­вичного алфавита, а объем зависит от числа символов вторичного алфавита, используемых для представления одного символа первичного алфа­вита и равен

,

где l – число символов вторичного алфавита, используемых для представления одного символа первичного алфа­вита сообщения, а k - количество передаваемых букв первичного алфавита в сообщении.

На практике часто встречается ситуация, когда интересующая система Х для наблюдения не доступна. Поэтому наблюде­ние ведут за другой системой Y, связанной каким-либо образом с системой Х. Между системой X и Y имеются различия из-за ошибок, которые могут быть двух видов:

1) ошибки наблюдения за системой X;

2) ошибки передачи информации о системе X посредством системы Y.

Для определения того, какое количество информации о системе X дает наблюдение системы Y , используют следующее выражение:

IY®X = H(X) – H(X/Y) = H(X) + H(Y) – H(X, Y),

где H(X)- априорная энтропия системы X (энтропия до наблюдения),       H(X / Y)- апостериорная (остаточная) эн­тропия системы X (энтропия после наблюдения) с учетом наблюдения системы Y, H(Y) – энтропия системы Y, H(X, Y) – энтропия объединения систем X и Y. Величина IY®X  есть полная информация о системе X, содержащаяся в системе Y. В общем случае, при наличии двух систем, каждая содержит относи­тельно другой системы одну и ту же полную информацию:

H(X) – H(X/Y) = H(Y) – H(Y/X).

Тогда IY®X  = IX®Y = IY«X. Величину IY«X называют полной взаимной информацией содержащейся в сис­темах X и Y.

Пример. Пусть даны две системы X и Y:

X = bbcabaabacabbacbbaccbbaccbbddadadad,

Y = ccabacabbacbbaccabcabbaccbbddadadab,

состояния которых определяются символами алфавита A = {a, b, c, d}. Найти:

1. вероятности состояний систем X и Y;

    2. энтропии независимых систем X и Y;

    3. условные энтропии систем X и Y, считая, что каждому символу одной системы соответствует соответствующий по индексу символ второй системы;

    4. энтропию объединения независимых систем X и Y;

    5. энтропию объединения зависимых систем X и Y;

    6. взаимную информацию систем X и Y;

    7. объем информации для систем X и Y, считая, что каждый символ алфавита A кодируется двумя символами вторичного алфавита.

Решение.

1. Для определения вероятности каждого состояния систем X и Y найдем его частоту и разделим на общее число наблюдений (при этом результаты округляем так, чтобы сумма вероятностей была равна 1):

Состояние a b c d Всего
Число наблюдений для системы X 11 12 7 5 35
Число наблюдений для системы Y 11 11 9 4 35
Вероятность для системы X 0.314 0.343 0.2 0.143 1
Вероятность для системы Y 0.314 0.314 0.257 0.115 1

 

2. Энтропии независимых систем находим по формуле К.Шеннона:

, .

3. Для определения условных энтропий сначала найдем условные вероятности по формулам:

, , i = 1, 2, …, n, j = 1, 2, …, m,

где n(xi/yj) – число состояний xi системы X, наблюдаемых, когда система Y находилась в состоянии yj, n(yj) – число наблюдений состояния yj системы Y, n(yj/xi) – число состояний yj системы Y, наблюдаемых, когда система X находилась в состоянии xi, n(xi) – число наблюдений состояния xi системы X.

 

y1 = a y2 = b y3 = c y4 = d n(xi)
n(x1=a/yj) 6 3 2 0 11
n(x2=b/yj) 2 7 3 0 12
n(x3=c/yj) 3 0 4 0 7
n(x4=d/yj) 0 1 0 4 5
n(yj) 11 11 9 4  

 

 

x1 = a x2 = b x3 = c x4 = d n(yj)
n(y1=a/xi) 6 2 3 0 11
n(y2=b/xi) 3 7 0 1 11
n(y3=c/xi) 2 3 4 0 9
n(y4=d/xi) 0 0 0 4 4
n(xi) 11 12 7 5  

 

y1 = a y2 = b y3 = c y4 = d
p(x1=a/yj) 0.545 0.273 0.223 0
p(x2=b/yj) 0.182 0.636 0.333 0
p(x3=c/yj) 0.273 0 0.444 0
p(x4=d/yj) 0 0.091 0 1
1 1 1 1

 

x1 = a x2 = b x3 = c x4 = d
p(y1=a/xi) 0.545 0.167 0.429 0
p(y2=b/xi) 0.273 0.583 0 0.2
p(y3=c/xi) 0.182 0.25 0.571 0
p(y4=d/xi) 0 0 0 0.8
1 1 1 1

 

Полученные условные вероятности подставим в формулы

,

и получим H(X/Y) = 1.234, H(Y/X) = 1.226.

 

4. Энтропия объединения независимых систем равна:

H(X, Y) = H(X) + H(Y) = 3.831.

5. Энтропия объединения зависимых систем равна:

H(X, Y) = H(X) + H(Y/X) = H(Y) + H(X/Y) = 3.15.

6. Взаимная информация систем равна:

IY«X = H(X) – H(X/Y) = H(Y) – H(Y/X) = 0.69.

7. Объемы информации равны:

Q(X) = 35 ´ 2  = 70 бит, Q(Y) = 35 ´ 2  = 70 бит.

 

Порядок выполнения лабораторной работы

1. Ознакомиться с основными сведениями об информационных характеристиках дискретных случайных систем.

2. Получить задание на выполнение лабораторной работы.

3. Выполнить расчеты информационных характеристик дискретных случайных систем.

4. Сделать выводы о свойствах информационных характеристик дискретных случайных систем.

5. Оформить отчет о выполнении лабораторной работы.

6. Ответить на контрольные вопросы.

 

Контрольные вопросы

1. Что такое энтропия дискретной случайной системы?

2. Каковы основные свойства энтропии?

3. Когда энтропия приобретает максимальное (минимальное) зна­чение?

4. Как выражается энтропия объединения двух независимых систем?

5. Как выражается энтропия объединения двух зависимых систем?

6. Как выражается количество информации?

6. В чем разница между объемом информации и количеством инфор­мации?

7. Как зависит количество информации от сообщения об отдельном собы­тии от вероятности этого события?

8. Как определить взаимную информацию двух систем?

9. Как определяется полная взаимная информация в случаях полной независимости и полной зависимости систем?

10. Как определить взаимную информацию двух систем через энтропию объединения?

 


Дата добавления: 2020-04-25; просмотров: 452; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!