Классификация информации по разным признакам



Предмет и задачи информатики

Информатика — это фундаментальная естественная наука, изучающая процессы передачи и обработки информации.

Академик Б.Н. Наумов определял информатику "как естественную науку, изучающую общие свойства информации, процессы, методы и средства ее обработки (сбор, хранение, преобразование, перемещение, выдача)".

Информатику следует относить к естественнонаучным дисциплинам в соответствии с представлением о единстве законов обработки информации в искусственных, биологических и общественных системах. Отнесение информатики к фундаментальным наукам отражает общенаучный характер понятия информации и процессов ее обработки. В предмет информатики включается изучение отношений между источником и получателем информации.

Но информатика имеет черты технических и общественных наук, поэтому она является комплексной, междисциплинарной отраслью научного знания.

 

Понятие «Информация»

Понятие информация является одним из фундаментальных в современной науке и базовым для информатики. Наряду с такими понятиями, как вещество и энергия, пространство и время, оно составляет основу современной картины мира, ее относят к фундаментальным философским категориям. Понятие информации многозначно и имеет множество определений, раскрывающих ту или иную грань этого понятия. В зависимости от области знания существуют различные подходы к определению понятия информации.

В философском словаре говорится, что информация (лат. informatio — разъяснение, изложение) — это, во-первых, некоторые сведения, совокупность каких-либо данных, знаний; во-вторых — одно из основных понятий кибернетики.

В неживой природе понятие информации связывают с понятием отражения, отображения. В быту под информацией понимают сведения, которые нас интересуют, т.е. сведения об окружающем мире и протекающем в нем процессах, воспринимаемые человеком или специальными устройствами (субъективный подход). Информация для человека — это знания, которые он получает из различных источников. С помощью всех своих органов чувств человек получает информацию из внешнего мира.

В лингвистике под информацией понимают не любые сообщения, а только те из них, которые обладают новизной или полезностью, т.е. учитывается смысл сообщения.

Под информацией в технике понимают сообщения, передаваемые в форме знаков или сигналов.

В теории связи под информацией принято понимать любую последовательность символов, не учитывая их смысл.

В теории информации под информацией понимают не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую до их получения неопределенность. По определению К. Шеннона, информация — это снятая неопределенность.

Информация — это продукт взаимодействия данных и адекватных методов.

Данные — это зарегистрированные сигналы. Данные несут в себе информацию о событиях, произошедших в материальном мире, поскольку они являются регистрацией сигналов, возникших в результате этих событий. Однако данные не тождественны информации. Для того чтобы извлечь информацию из данных необходимо наличие метода. Данные это информация, представленная в формализованном виде и предназначенная для обработки ее техническими средствами, например, ЭВМ.

Информация, представленная в определенной форме и предназначенная для передачи, является сообщением.

Сигнал (от латинского signum — знак) представляет собой любой процесс, несущий информацию.

Различают две формы представления информации — непрерывную и дискретную. Поскольку носителями информации являются сигналы, то в качестве последних могут использоваться физические процессы различной природы. Например, процесс протекания электрического тока в цепи, процесс механического перемещения тела, процесс распространения света и т. д. Информация представляется (отражается) значением одного или нескольких параметров физического процесса (сигнала), либо комбинацией нескольких параметров.

Сигнал называется непрерывным, если его параметр в заданных пределах может принимать любые промежуточные значения. Сигнал называется дискретным, если его параметр в заданных пределах может принимать отдельные фиксированные значения.

Информацию следует считать особым видом ресурса, т.е. запаса некоторых сведений об объекте. Однако, в отличие от материальных ресурсов, информация является неистощимым ресурсом и предполагает существенно иные методы воспроизведения и обновления.

 

                             

Свойства информации

Выделяют следующие основные свойства информации:

· запоминаемость — возможность хранения информация (мы запоминаем макроскопическую информацию);

· передаваемость — способность информации к копированию;

· воспроизводимость — неиссякаемость: при копировании информация остается тождественной самой себе;

· преобразуемость — преобразование информации, связанное с ее уменьшением;

· стираемость — преобразование информации, когда ее количество становится равным нулю;

· объективность и субъективность — информация объективна, если она не зависит от чьего-либо мнения, суждения;

· достоверность — информация достоверна, если она отражает истинное положение дел;

· полнота — характеризует качество информации и определяет достаточность данных для принятия решений или для создания новых данных на основе имеющихся;

· адекватность — степень соответствия реальному объекту;

· доступность — мера возможности получить ту или иную информацию;

       актуальность — степень соответствия информации текущему моменту времени. (изменяющийся во времени физический процесс), то соответствующая информация является непрерывной. Если же сигнал от источника принимает конечное число значений, которые могут быть пронумерованы, то соответствующая информация является дискретной. Непрерывное сообщение можно преобразовать в дискретное. Передача информации с помощью азбуки Морзе — это пример дискретной связи.

Объемная мера информации

Объемный подход к измерению информации связывает количество информации в сообщении с его размером: чем длиннее сообщение, тем больше в нем информации.

Т.к. сообщение может быть закодировано в любом алфавите, то принято измерять длину сообщения по числу двоичных знаков, требуемых для его представления.

За единицу измерения в этом случае принимается 1 двоичный символ. Эта единица называется битом.

Таким образом, если сообщение в двоичной форме имеет длину n, то и объем информации в этом сообщении считается равным V = n.

Объем сообщения длины n, записанного в k-ричном алфавите, вычисляется по формуле .

 

 

Классификация информации по разным признакам


Дата добавления: 2019-02-22; просмотров: 1289; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!