Глава 2. Информационное обеспечение АСУТП



Энтропия как мера информации

Технологический процесс, протекающий под управлением АСУТП, сопровождается информационными процессами, протекающими внутри АСУТП. Информационные процессы включают в себя:

· прием и запоминание управляющих программ (УП);

· прием и запоминание текущей информации о параметрах техпроцесса и параметрах АСУТП;

· формирование управляющих сигналов, воздействующих на управляемый техпроцесс, и передачу их по каналам УСО;

· формирование информации о ходе техпроцесса и о состоянии АСУТП для верхнего уровня управления с целью передачи ее по запросам ЦУВМ или оператора.

С точки зрения информационных процессов будем рассматривать техпроцесс и управляющие им сигналы как последовательность запланированных (предусмотренных) событий. События – это факты реализуемого производственного процесса. Реализованное событие будем называть исходом. Описание происходящих событий будем называть сообщениями. Все рассматриваемые сообщения будем считать дискретными величинами, начиная с сигналов на включение и отключение какого-либо оборудования и вплоть до показаний стрелочных измерительных приборов, дискретность которых определяется ценой деления шкалы. Соответственно информацией будем называть процесс формирования, пересылки и регистрации (запоминания) сообщений, а также зарегистрированную совокупность сообщений.

Смысл сообщений, содержательная сторона информации, определяется известными закономерностями хода событий. Здесь, однако, нас будет интересовать не смысл, а количественная оценка информации, объем записей, которые необходимо сделать для регистрации сообщений. Последний будет существенно зависеть от совокупности символов, применяемых для записи информации. Такая совокупность обычно имеет вид основания системы исчисления или алфавита. Если в качестве основания используется совокупность n различных символов, а каждое сообщение состоит из H элементов, то с ее помощью можно сформировать не более чем nH различных сообщений об интересующих нас событиях. Тогда величину H можно определить из соотношения

H=logn M,                       (2.1)

где M – количество возможных вариантов события, сообщения о котором нам необходимо сформировать в зависимости от того, какой вариант состоится. Величину H, равную количеству элементов сообщения и характеризующую минимальный объем сообщения о том, что один из интересующих нас M вариантов изучаемого процесса действительно имел место, принято называть энтропией.

Если при планировании техпроцесса предполагается, что его результат однозначно предопределен, что исход будет однозначным, то в формуле (2.1) полагаем М=1 и получим Н=0. Однако однозначный результат гарантировать невозможно. Исход техпроцесса и даже его простейших операций зависит от множества случайных факторов, действие которых оценивают методами теории вероятности. Так, если все предполагаемые события равновероятны и образуют полную группу (т.е. при каждом повторении изучаемого процесса происходит хотя бы одно из их), то вероятность каждого из этих событий равна

,

и соотношение (2.1) может быть записано в виде

H= - logn P.           (2.2)

Здесь величина Н выступает как мера априорной неопределенности любого из исходов изучаемого процесса. Чем меньше вероятность P(чем больше вариантов равновероятных исходов), тем больше энтропия процесса. Таким образом, энтропия может быть использована для оценки степени случайности техпроцесса или какой-либо из технологических операций, как мера неупорядоченности процесса. Обычно изучаемые события не равновероятны, характеризуются вероятностями Pj, и их энтропия рассчитывается по формуле Шеннона:

,       (2.3)

– причем необходимо чтобы изучаемые события составляли полную группу, когда .

 Величина Н, рассчитанная по формуле (2.3), является математическим ожиданием, т.е. средним значением минимального объема записей; которые необходимо сделать для фиксирования факта реализации одного из М интересующих нас событий. Запишем Pj каждого из этих событий в виде соотношения

,

где      ,     .

Подставив данное соотношение в формулу (2.3), получим

.               (2.4)

Если все рассматриваемые события равновероятны, то все =1 и соотношения (2.3) и (2.4) сводятся к соотношению (2.1). В остальных случаях величина Н будет уменьшена на величину

,

т.е. максимальное значение энтропии Н соответствует равной вероятности событий изучаемого процесса. Величина энтропии как минимального объема сообщения используется для оценки количества информации. Поскольку фактическое распределение вероятностей исходов чаще всего неизвестно, то при определении объема запоминающих устройств и пропускной способности каналов связи обычно руководствуются формулой (2.1).

 


Дата добавления: 2018-04-04; просмотров: 116;