Качественные и количественные характеристики информации



Свойства информации (новизна, актуальность, достоверность и др.).

Единицы измерения количества информации.

Вероятностный подход к измерению количества информации

Человек – существо социальное, для общения с другими людьми он должен обмениваться с ними информацией, причем обмен информацией всегда производится на определенном языке – русском, английском и т.д. Участники дискуссии должны владеть тем языком, на котором ведется общение, тогда информация будет понятной всем участникам обмена информацией.

Информация должна быть полезной, тогда дискуссия приобретает практическую ценность. Бесполезная информация создает информационный шум, который затрудняет восприятие полезной информации. Примерами передачи и получения бесполезной информации могут служить некоторые конференции и чаты в Интернете.

Широко известен термин «средства массовой информации» (газеты, радио, телевидение), которые доводят информацию до каждого члена общества. Такая информация должна быть достоверной и актуальной. Недостоверная информация вводит членов общества в заблуждение и может быть причиной возникновения социальных потрясений. Неактуальная информация бесполезна и поэтому никто, кроме историков, не читает прошлогодних газет.

Для того чтобы человек мог правильно ориентироваться в окружающем мире, информация должна быть полной и точной. Задача получения полной и точной информации стоит перед наукой. Овладение научными знаниями в процессе обучения позволяет человеку получить полную и точную информацию о природе, обществе и технике.

Человек получает информацию из окружающего мира с помощью органов чувств, анализирует ее и выявляет важные существенные закономерности с помощью мышления и хранит полученную информацию в памяти. Процесс систематического научного познания окружающего мира приводит к накоплению информации в форме знаний (фактов, научных теорий и т.д.). Таким образом, с точки зрения науки информация рассматривается как знания.

Процесс познания можно наглядно изобразить в виде расширяющегося круга знания (такой способ придумали еще древние греки). Вне этого круга лежит область незнания, а окружность является границей между знанием и незнанием. Парадокс состоит в том, что чем большим объемом знаний обладает человек и чем шире круг знаний, тем больше он ощущает недостаток знаний, и тем больше граница нашего незнания, мерой которого в этой модели является длина окружности.

Информацию, которую получает человек, можно считать мерой уменьшения неопределенности знания. Если некоторое сообщение приводит к уменьшению неопределенности наших знаний, то можно говорить, что такое сообщение содержит информацию.

Подход к информации как к мере уменьшения неопределенности знания позволяет количественно измерять информацию, что чрезвычайно важно для информатики, учитывая, что она имеет дело с процессами передачи и хранения информации. Естественно, это требует оценки и учета количества передаваемой информации, ее объема.

Количество информации, которое содержится в сообщениях, уменьшающих неопределенность наших знаний. Такой подход рассматривает информацию с точки зрения содержания, ее понятности и новизны для человека. С этой точки зрения в опыте по бросанию монеты одинаковое количество информации содержится и в зрительном образе упавшей монеты, и в коротком сообщении «Орел», и в длинной фразе «Монета упала на поверхность земли той стороной вверх, на которой изображен орел».

Для количественного определения любой величины необходимо определить единицу измерения. Так, для измерения длины в качестве единицы измерения выбран метр, для измерения массы – килограмм и т.д. Для определения количества информации необходимо также ввести единицу измерения.

За единицу количества информации принято такое количество информации, которое содержит сообщение, уменьшающее неопределенность знания в два раза. Такая единица названа бит.

Существует формула, которая связывает между собой количество возможных событий N и количество информации I: N=2I.

По этой формуле можно определить количество возможных событий, если известно количество информации. Например, если мы получили 4 бита информации, то количество возможных событий составляло: N=24=16.

Наоборот, для определения количества информации, если известно количество событий, необходимо решить показательное уравнение относительно I. Например, в игре «Крестики-нолики» на поле 8х8 перед первым ходом существует 64 возможных события (64 варианта расположения «крестика»), тогда уравнение принимает вид: 64=2I. Так как 64=26, то уравнение принимает вид: 26=2I. Таким образом, I=6 бит, т.е. количество информации, полученное вторым игроком после первого хода первого игрока, составляет 6 бит.

Формулу для вычисления количества информации для событий с различными вероятностями предложил К. Шеннон в 1948 г. В этом случае количество информации определяется по формуле: , где I – количество информации, N – количество возможных событий, pi – вероятности отдельных событий. Когда события равновероятны (рi=1/N), величину количества информации I можно рассчитать по формуле: .

Минимальной единицей измерения количества информации является бит, а следующей по величине единицей является байт, причем 1 байт=2 бит=8 бит.

Компьютер оперирует числами не в десятичной, а в двоичной системе счисления, поэтому в кратных единицах измерения количества информации используется коэффициент 2n.

Кратные байту единицы измерения количества информации вводятся следующим образом: 1 Кбайт = 210 байт = 1024 байт

                     1 Мбайт = 2n Кбайт = 1024 Кбайт

                     1 Гбайт = 210 Мбайт = 1024 Мбайт

 


Дата добавления: 2018-02-28; просмотров: 1360; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!