Порядок выполнения контрольной работы



Контрольная работа (номер варианта по списку)

Информационные характеристики дискретных случайных систем

Сведения, являющиеся объектом хранения, передачи и преобразования, называют информацией. Для измерения количества информации о некоторой дискретной случайной системе Х используется энтропия, которая показывает степень неопределенности со­стояния этой системы. К.Шеннон ввел следующую формулу для определения энтропии:

,

где x1, x2, … xi,…, xn – возможные состояния системы X, p(x1), (x1), …, p(xi),…, p(xn) – вероятности состояний ( ).

Свойства энтропии:

1. энтропия есть величина вещественная, ограниченная и неотрицатель­ная;

2. энтропия минимальна и равна нулю, если хотя бы одно из состояний сис­темы достоверно известно;

3. энтропия максимальна и равна логарифму числа состояний, если состоя­ния системы равновероятны;

4. энтропия бинарных величин изменяется от 0 до 1 – она равна 0, если вероятность одного из состояний равна 0, затем возрастает и достигает максимума при вероятностях 0.5.

Пусть имеется сложная система, состоящая из двух систем X и Y:

X = (x1, …, xi, …, xn ), Y = (y1, … , yj, …, ym ).

 Ее поведение определяется матрицей вероятностей совместных событий  P(X, Y) = [p(xi, yj)]n´m=[pij]n´m:

.

Энтропия сложной системы вычисляется по формуле:

.

В случае независимых систем X и Y энтропия сложной системы рассчитывается следующим образом:

H(X, Y) = H(X) + H(Y)

В случае зависимых систем X и Y можно определить условную частную энтропию H(Y/xi) системы Y относительно от­дельного события xi:

,

где p(xi/yj) – условные вероятности, задаваемые матрицей:

.

Если частную условную энтропию ус­реднить по всем состояниям xi с учетом вероятности появления каждого из состояний p(xi), то можно найти полную условную энтропию системы Y отно­сительно системы X:

,

,

.

В случае зависимых систем X и Y энтропию сложной системы можно вычислить с помощью соотношений:

H(X, Y) = H(X) + H(X/Y) = H(Y) + H(X/Y).

Энтропию сложной системы также называют энтропией объединения. В общем случае энтропия объединенной системы

H(X, Y) ≤ H(Y) + H(X/Y),

что следует из неравенства

H(Y/X) ≤ H(Y).

В случае полной зависимости систем, состояния одной системы полно­стью определяют состояния другой:

H(X, Y) = H(X) = H(Y).

При передаче сообщений с информацией о какой-либо системе происходит уменьшение неопределен­ности: чем более неоп­ределенным было состояние системы, тем большее количество информации содержится в сообщении. Поэтому количество информации о системе X измеряют уменьшением энтропии:

I(X) = H1(X) – H2(X),

где H1(X) – энтропия системы до наблюдения, H2(X) – энтропия в результате наблюдения. Пусть H1(X) = H(X). В результате наблюдения неопределенность исчезает, т.е. H2(X) становится равным 0, и поэтому

I(X) = H(X),

т.е. количество информации, приобретаемое при полном выясне­нии состояния некоторой системы, равно энтропии этой системы.

Сообщение, которое требуется передать, можно представить в виде последовательности символов некоторого первичного алфавита. В свою очередь, при передаче этих символов они могут быть закодированы с помощью символов некоторого вторичного алфавита. Поэтому следует различать количество информации, которое вычисляется относительно первичного алфавита, и объем информации, который вычисляется относительно вторичного алфа­вита. Количество информации зависти от вероятностных характеристик пер­вичного алфавита, а объем зависит от числа символов вторичного алфавита, используемых для представления одного символа первичного алфа­вита и равен

,

где l – число символов вторичного алфавита, используемых для представления одного символа первичного алфа­вита сообщения, а k - количество передаваемых букв первичного алфавита в сообщении.

На практике часто встречается ситуация, когда интересующая система Х для наблюдения не доступна. Поэтому наблюде­ние ведут за другой системой Y, связанной каким-либо образом с системой Х. Между системой X и Y имеются различия, которые могут быть двух видов:

1. различия за счет того, что некоторые состояния системы X не находят отражения в системе Y (Y менее подробна, чем система X);

2. различия за счет ошибок: неточностей измерения параметров системы X и ошибок при передаче сообщений о системе X.

Для определения того, какое количество информации о системе X дает наблюдение системы Y, используют следующее выражение:

IY®X = H(X) – H(X/Y) = H(X) + H(Y) – H(X, Y),

где H(X)- априорная энтропия (энтропия до наблюдения), H(X/Y)- апостериорная (остаточная) эн­тропия (энтропия после наблюдения), H(Y) – энтропия системы Y, H(X, Y) – энтропия объединения систем X и Y. Величина IY®X  есть полная информация о системе X, содержащаяся в системе Y. В общем случае, при наличии двух систем, каждая содержит относи­тельно другой системы одну и ту же полную информацию:

H(X) – H(X/Y) = H(Y) – H(Y/X).

Тогда IY®X  = IX®Y = IY«X. Величину IY«X называют полной взаимной информацией содержащейся в сис­темах X и Y.

Если X и Y не­зависимые системы, то H(Y/X) = H(Y) и IY«X = 0, т.е. нельзя получить сведений о системе, наблюдая вместо нее другую систему, никак с нею не связанную. Если X и Y полностью определяют друг друга, то

H(X) = H(Y), H(X/Y) = H(Y/X) = 0и IY«X = IX = IY = H(X) = H(Y). Если между X и Y имеется жесткая односторонняя зависимость (состояние одной из систем полностью определяет состоя­ние другой, но не наоборот), то по состоянию подчиненной системы вообще нельзя однозначно определить состояние другой. Очевидно, энтропия подчи­ненной системы меньше чем та, которой она подчиняется, так как она менее подробна. Тогда полная взаимная информация, содержащаяся в системах, из которых одна является подчиненной, равна энтропии подчиненной системы. Например, если из двух систем X и Y подчиненной является Y, то H(Y/X) = 0 и IY«X = H(Y).

Порядок выполнения контрольной работы

1. Ознакомиться с основными сведениями об информационных характеристиках дискретных случайных систем.

2. Получить задание на выполнение лабораторной работы.

3. Выполнить расчеты информационных характеристик дискретных случайных систем с помощью программы Microsoft Excel.

4. Сделать выводы о свойствах информационных характеристик дискретных случайных систем.

5. Оформить отчет о выполнении лабораторной работы.

6. Ответить на контрольные вопросы.

Контрольные вопросы

  1. Что такое энтропия дискретной случайной системы?
  2. Каковы основные свойства энтропии?
  3. Как выражается энтропия объединения двух независимых систем?
  4. Как выражается энтропия объединения двух зависимых систем?
  5. Как выражается количество информации?
  6. В чем разница между объемом информации и количеством инфор­мации?
  7. Как зависит количество информации от сообщения об отдельном собы­тии от вероятности этого события?
  8. Как определить взаимную информацию двух систем?
  9. Как определяется полная взаимная информация в случаях полной независимости и полной зависимости систем?
  10. Как определить взаимную информацию двух систем через энтропию объединения?

11. Дифференциальная энтропия.

12. Свойства энтропии непрерывной системы.

13. Взаимная информация непрерывных систем.

14. Условная энтропия непрерывной системы.

15. Принцип экстремума энтропии.

16. Энтропия непрерывной системы при заданной дисперсии.

17. Энтропия непрерывной системы при произвольной дисперсии.

18. Эпсилон-энтропия.

 


Дата добавления: 2018-08-06; просмотров: 171; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!