Спектральные представления случайных процессов. Теорема Виннера-Хинчина.



Если какой-либо сигнал представлен в виде суммы гармонических колебаний с различными частотами, то говорят что осуществлено спектральное разложение этого сигнала. Отдельные гармонические компоненты сигнала образуют его спектр.

 

Теорема Винера-Хинчина. формулируется так: «Функция автокорреляции и энергетический спектр стационарного случайного процесса, имеющего нулевое математическое ожидание, связаны между собой преобразованием Фурье».

Непрерывный случай:

где

 есть автокорреляционная функция, определённая через математическое ожидание, и где Sxx(f) — спектральная плотность мощности функции .

Отметим, что автокорреляционная функция определена через математическое ожидание от произведения и что преобразования Фурье от не существует в общем случае, так как стационарные случайные функции не интегрируемы в квадратичном.

Звёздочка означает комплексное сопряжение, оно может быть опущено, если случайный процесс вещественный.

Дискретный случай:

где

 корреляционная функция,

и где

Sxx(f) — спектральная плотность мощности с дискретными значениями . Являясь упорядоченной по дискретным отсчётам времени, спектральная плотность — периодическая функция в частотной области.

Теория информации. Определения и свойства энтропии.

Теория информации (математическая теория связи) — раздел прикладной математики, аксиоматически определяющий понятие информации, её свойства и устанавливающий предельные соотношения для систем передачи данных. Как и любая математическая теория, оперирует с математическими моделями, а не с реальными физическими объектами (источниками и каналами связи). Использует, математический аппарат теории вероятностей и математической статистики.

Основные разделы теории информации — кодирование источника (сжимающее кодирование) и канальное (помехоустойчивое) кодирование. Теория информации тесно связана с криптографией и другими смежными дисциплинами.

В теории информации ЭНТРОПИЯ — это мера неопределённости какого-либо опыта (испытания), который может иметь разные исходы, а значит и количество информации;

Энтропия является мерой неопределенности опыта, в котором проявляются случайные события, и равна средней неопределенности всех возможных его исходов.

СВОЙСТВА ЭНТРОПИИ.

1. H = 0 только в двух случаях:

какая-либо из p(Aj) = 1; однако, при этом следует, что все остальные p(Ai) = 0 (i j), т.е. реализуется ситуация, когда один из исходов является достоверным (и общий итог опыта перестает быть случайным);

все p(Ai) = 0, т.е. никакие из рассматриваемых исходов опыта невозможны, поскольку нетрудно показать, что:

Во всех остальных случаях, очевидно, что H > 0.

2.  для двух независимых опытов и

(1.5)

Энтропия сложного опыта, состоящего из нескольких независимых, равна сумме энтропий отдельных опытов.

Пусть опыт имеет n исходов A1, A2, ..., An, которые реализуются с вероятностями p(A1), p(A2), ..., p(An), а событие – m исходов B1, B2, ..., Bm с вероятностями p(B1), p(B2), ..., p(Bm). Сложный опыт имеет n ·mисходов типа AiBj (i=1...n, j=1...m). Следовательно:

(1.6)

Поскольку и – независимы, то независимыми окажутся события в любой паре Ai Bj. Тогда:

В слагаемых произведено изменение порядка суммирования в соответствии со значениями индексов. Далее, по условию нормировки:

а из (1.4)

Окончательно имеем:

что и требовалось доказать.

Пусть имеется два опыта с одинаковым числом исходов n, но в одном случае они равновероятны, а в другом – нет. Каково соотношение энтропий опытов? Примем без доказательства следующее утверждение: (1.7)

При прочих равных условиях наибольшую энтропию имеет опыт с равновероятными исходами.

Другими словами, энтропия максимальна в опытах, где все исходы равновероятны.


Дата добавления: 2018-02-18; просмотров: 1557; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!