Информация. Кодирование информации. Системы счисления. Измерение информации



Термин «информация» происходит от латинского informatio — разъяснение, изложение, осведомленность. Наиболее общее определение имеет место в философии, где под информацией понимается отражение реального мира.

Более узкое определение дается в технике, где: информацияэто все сведения, являющиеся объектом хранения, передачи и преобразования.

С понятием информации связаны такие понятия, как сигнал, сообщение и данные.

Сигнал (от латинского signum — знак) представляет собой любой процесс, несущий информацию.

Данные это информация, представленная в формализованном виде и предназначенная для обработки ее техническими средствами, например, ЭВМ.

Сообщение— это информация, представленная в определенной форме и предназначенная для передачи.

Различают две формыпредставления информации непрерывную и дискретную.

Поскольку носителями информации являются сигналы, то в качестве последних могут использоваться физические процессы различной природы. Например, процесс протекания электрического тока в цепи, процесс механического перемещения тела, процесс распространения света и т. д. Информация представляется (отражается) значением одного или нескольких параметров физического процесса (сигнала), либо комбинацией нескольких параметров.

Сигнал называется непрерывным, если его параметр в заданных пределах может принимать любые промежуточные значения.

Сигнал называется дискретным, если его параметр в заданных пределах может принимать отдельные фиксированные значения.

Следует также различать непрерывность или дискретность сигнала по уровню и во времени.

Непрерывное сообщение может быть представлено непрерывной функцией, заданной на некотором интервале. Непрерывное сообщение можно преобразовать в дискретное (такая процедура называется дискретизацией). Из бесконечного множества значений параметра сигнала выбирается их определенное число, которое приближенно может характеризовать остальные значения. Для этого область определения функции разбивается на отрезки равной длины и на каждом из этих отрезков значение функции принимается постоянным и равным, например, среднему значению на этом отрезке. В итоге получим конечное множество чисел. Таким образом, любое непрерывное сообщение может быть представлено как дискретное, иначе говоря, последовательностью знаков некоторого алфавита.

Возможность дискретизации непрерывного сигнала с любой желаемой точностью (для возрастания точности достаточно уменьшить шаг) принципиально важна с точки зрения информатики. Компьютер — цифровая машина, т.е. внутреннее представление информации в нем дискретно. Дискретизация входной информации (если она непрерывна) позволяет сделать ее пригодной для компьютерной обработки.

Все многообразие окружающей нас информации можно сгруппировать по различным признакам, т. е. классифицировать по видам. Например, в зависимости от области возникновения информацию, отражающую процессы и явления неодушевленной природы, называют элементарной, процессы животного и растительного мира — биологической, человеческого общества — социальной.

По способу передачи и восприятия различают следующие виды информации:

· визуальную — передаваемую видимыми образами и символами;

· аудиальную — звуками;

· тактильную — ощущениями,

· органолептическую — запахами и вкусом,

· машинную — выдаваемую и воспринимаемую средствами вычислительной техники, и т. д.

Свойства информации

Одним из важнейших параметров информации является её адекватность, т.е. степень соответствия создаваемого с помощью полученной информации образа реальному объекту (процессу, явлению). Различаются три формы адекватности информации: синтаксическая, семантическая и прагматическая.

1.Синтаксическая адекватность отображает формально-структурные характеристики информации и не затрагивает её смыслового содержания.

2. Семантическая (смысловая) адекватность определяет степень соответствия информации об объекте самому объекту.

3. Прагматическая (потребительская) адекватность отражает отношение информации и её потребителя. Прагматический аспект связан с ценностью, полезностью использования информации потребителем для достижения поставленной цели.

Возможность и эффективность использования информации обуславливаются её потребительскими свойствами:

· содержательность,

· репрезентативность,

· достаточность,

· доступность,

· актуальность,

· своевременность,

· точность,

· достоверность,

· устойчивость.

Многие из этих показателей очевидны и не требуют их интерпретации. Поэтому остановимся лишь на некоторых из них.

Содержательность информации отражает семантическую ёмкость, равную отношению величины семантической информации в сообщении к объёму обрабатываемых данных.

Репрезентативность информации связана с правильностью её отбора и формирования в целях адекватного отражения свойств объекта.

Достаточность (полнота) информации означает, что она содержит минимальный, но достаточный для принятия правильного решения набор показателей. Как неполная, так и избыточная информация снижает эффективность принимаемых пользователем решений.

Меры информации

Информация (в смысле данных) всегда связана с материальным носителем: это может быть сигнал в любой материальной форме, числовой, символьный код на печатной основе и т.д. Поскольку, любой материальный объект можно измерить, то это относится и к информации. Что же в ней можно измерить? Во-первых, количественно синтаксическую форму адекватности информации реальному объекту. Степень адекватности описываемого объекта зависит от количества слов (символов), затраченных на описание модели объекта.

Чтобы стандартизировать измерение количества информации, договорились за единицу измерения брать бит – количество информации, которое можно передать в сообщении, состоящем из одного двоичного знака. С другой стороны 1 бит – это количество информации, уменьшающее неопределенность ситуации в 2 раза. Такой подход отвечает на вопрос, какое количество «новой» информации мы получаем из сообщения. Так, сообщение о том, что подброшенная монета упала «решкой» вверх, несет в себе 1 бит информации. На практике чаще используется 1 байт=8 битам. Так, один байт информации можно передать с помощью одного символа кодировки ASCII. Например, неопределенность бросания одного кубика равна 6 исходам, а двух кубиков одновременно 36. Поскольку, каждый символ естественного языка можно закодировать одним байтом (8 бит), то легко вычислить полный объём информации, связанный с описанием любого объекта, процесса, явления. Это так называемый алфавитный подход измерения количества информации.

Есть другой количественный подход - кибернетический, который учитывает ценность информации (прагматическая адекватность). Впервые он был предложен в работах К.Шеннона и Н.Винера. Изучая системы передачи информации, К.Шеннон пришёл к выводу, что каждое элементарное сообщение на выходе системы уменьшает неопределённость исходного множества сообщений, при этом смысловой аспект сообщения не имеет никакого значения. Неопределенность некоторого события – это количество возможных результатов (исходов) данного события. За единицу количества информации было предложено принять "количество информации, передаваемое при одном выборе между равновероятными альтернативами". Эта наименьшая единица информации называется бит. Информация в один бит уменьшает неопределённость информационной системы в 2 раза. Для вычисления средней величины количества информации, связанного с положительным исходом некоторого события x из множества N событий К.Шеннон предложил формулу:

, где Рi -вероятность i-го события.

Эта формула характеризует энтропию системы (В теории информации мерой неопределенности является Энтропия- удельное количество информации, приходящееся на один элемент сообщения (на букву первичного алфавита)). Изначально это понятие появилось в физике и характеризует оно степень неупорядоченности, т.е. неопределённости микросостояния, в котором система (например, термодинамическая) может находиться в данный момент времени. Значение H достигает максимума для равновероятных событий, т.е. при Рi = 1∕m формула К.Шеннона упрощается:

 (формула Р.Хартли).

Таким образом, если при передаче информации не было информационных потерь, то количество информации на символ сообщения будет точно равно Н, а количество информации при передаче символов I=k*H. Количество информации вычисляется относительно первичного алфавита, а объем информации – относительно вторичного алфавита. Объем информации зависит от длины сообщения во вторичном алфавите n и равен Q=k*n, где k-число символов первичного алфавита в сообщении; n – число символов вторичного алфавита для кодирования 1 символа первичного алфавита.

Пример. Тексты, составленные из 32 букв украинского алфавита, передаются по телетайпу при помощи двух качественных признаков: наличия и отсутствия тактовой посылки. Чему равно количество информации, приходящееся на одну принятую букву, на k принятых букв.

Решение. Основание логарифма равно 2 (наличие(1) и отсутствие(0) тактовой посылки), n=32 символа.

H=log232=5 бит (вероятность появления символов равновероятна, количество информации на одну букву или длина двоичной записи одного любого символа украинского алфавита равна 5 двоичным знакам).

I=k*5 бит (количество информации на k символов).

Пример. Определить объем и количество информации при передаче русского текста из 350 букв при помощи пятизначного двоичного кода.

Решение. Количество символов во вторичном алфавите n=25=32 (то есть количество информации, которое несет 1 символ для 32-х элементного русского алфавита, равно 5 битам), k=350 букв. Q=350*5=1750 бит. I=350*log232=350*5=1750 бит.

Пример: Рассмотрим систему с 256 возможными состояниями, например расширенную кодовую таблицу символов, тогда  H будет равно 8 битам (log2256 = 8). Другими словами, восемь бит достаточно, чтобы точно описать исход любого события (например, выборку определённого символа из таблицы).

Таким образом, количество информации (в битах), заключенное в двоичном слове, равно числу двоичных знаков в нем.

В двоичной системе счисления знаки 0 и 1 будем называть битами (от английского выражения Binary digiTs - двоичные цифры). Отметим, что создатели компьютеров отдают предпочтение именно двоичной системе счисления потому, что в техническом устройстве наиболее просто реализовать два противоположных физических состояния: некоторый физический элемент, имеющий два различных состояния: намагниченность в двух противоположных направлениях; прибор, пропускающий или нет электрический ток; конденсатор, заряженный или незаряженный и т.п. В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации, подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом в частности, невозможно нецелое число битов (в отличие от вероятностного подхода).

Для удобства использования введены и более крупные единицы количества информации: двоичное слово из восьми знаков содержит один байт информации, 1024 байта образуют килобайт (Кбайт), 1024 килобайта - мегабайт (Мбайт), а 1024 мегабайта - гигабайт (Гбайт).

 

1 Килобайт =1024 байт   1 Мегабайт =1024 Кбайт   1 Гигабайт =1024 Мбайт 1 Терабайт = 1024Гбайт 1 Петабайт =1024 Тбайт 1 Экзабайт =1024Пбайт  

1 байт = 8 бит

1 Кбит =1024 бит

1 Мбит =1024 Кбит

1 Гбит =1024 Мбит

Содержательный (субъективный) подход. Содержание информации кроме количественного (объективного) параметра имеет ещё и семантическую (смысловую) характеристику, которая определяется способностью пользователя понимать поступившее сообщение. Эта способность зависит от тезауруса пользователя, т.е. совокупности сведений и знаний, которыми располагает пользователь. Если тезаурус пользователя близок к нулю, то любая новая информация им не воспринимается (он её не понимает) и в этом случае семантическая компонента информации для него равна нулю. Если поступившая информация не даёт ему новые (полезные) знания, то и в этом случае семантическая информация также равна нулю. Максимальное значение семантической информации пользователь воспринимает в случае, когда поступившая информация понята пользователем и несёт ему новые сведения, знания. Таким образом, одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным для пользователя некомпетентного.

Высшей формой информации, проявляющейся в управлении в социальных системах, являются знания. Это наддисциплинарное понятие, широко используемое в педагогике и исследованиях по искусственному интеллекту. В философском плане познание следует рассматривать как один из функциональных аспектов управления.

Обработка информации – получение одних информационных объектов из других информационных объектов путем выполнения некоторых алгоритмов.

Обработка является одной из основных операций, выполняемых над информацией, и главным средством увеличения объёма и разнообразия информации.

Средства обработки информации— это всевозможные устройства и системы, созданные человечеством, и в первую очередь, компьютер — универсальная машина для обработки информации.

Компьютеры обрабатывают информацию путем выполнения некоторых алгоритмов.

Живые организмы и растения обрабатывают информацию с помощью своих органов и систем.


Дата добавления: 2018-02-18; просмотров: 1901; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!