МОДУЛЬ 1. КОДИРОВАНИЕ ИНФОРМАЦИИ



Аннотация .

Рассматриваются основные этапы развития информатики как фундаментальной науки, изучающей информационные процессы в природе и обществе. Показано, что в настоящее время информатика активно формируется как комплексное междисциплинарное направление, которое в перспективе сможет квалифицироваться как самостоятельная отрасль фундаментальной науки.

В материале содержатся краткие теоретические сведения по разделам курса «Теория информации» и «Кодирование информации». В конце каждого пункта приводится разбор решений типовых задач, предлагаются задачи для самостоятельной работы, и контрольные вопросы.

Понятие информации

 

Само понятие информации (information) возникло от латинского слова «information» - разъяснение, изложение и до середины 20 века предполага­ло сведения, передаваемые между людьми. В последние годы этот термин получил более широкое толкование - сведения, участвующие в обмене между людьми, человеком и автоматом, автоматом и автоматом; обмен сигна­лами в животном и растительном мире, передача признаков от клетки к клетке, от организма к организму.

Можно выделить две формы существования информации:

1. статическая информация (книги, рисунки, записи, фото и т, п.);

2. динамическая информация (процессы передачи информации по кана­лам связи или в пространстве).

Информацию можно разделить на два вида: биологическую и социальную.

Биологическая информация обеспечивает жизнедеятельность отдель­но взятого живого организма. К разновидностям биологической инфор­мации относится генетическая информация. Генетическая информация – это, получаемые от предков и заложенные в наследственных структурах организмов в виде совокупности генов, программы о составе, строении и характере обмена составляющих организм веществ.

Социальная информация неразрывно связана с практической дея­тельностью человека. Поэтому можно выделить столько ее типов и разно­видностей, сколько имеется видов деятельности человека. Например, юридическая, научная, техническая, технологическая, планово-экономи­ческая, финансовая и т. п.

Основными свойствами информации являются неразрывная ее связь с определенной саморазвивающейся системой, структурированность, смысл и ценность.

Структурированность информации - это свойство, которое позволяет выделять информацию из получаемых сигналов.

Смысл или семантические характеристики информации позволяют опре­делить цель и назначение информации (прагматические характеристики).

Ценность информации выражается в таких понятиях, как содержа­тельность, своевременность, полнота, достоверность, оперативность.

Понятие информации относится к основным понятиям науки об управ­лении и тесно связано с такими понятиями, как «информационный процесс» (information process) и «информационные системы» (information system).

Информационный процесс – процесс, возникающий в результате ус­тановления связи между двумя объектами: источником (генератором) информации и приемником (получателем) информации.

Информационная система - это хранилище информации, снабженное средствами ввода, поиска размещения и выдачи информации.

Под информацией понимаем любую совокупность сигналов, воздействий или сведений, которые система или объект воспринимает извне (входная информация), выдает в окружающую среду (выходная информация) или хранит в себе (внутренняя информация). Обмен информацией происходит посредством сигнала.

Сигнал- это материальный носитель информации (предмет, явление, процесс) в пространстве и во времени. Любой сигнал неразрывно связан с определенной системой, которая является системой связи или системой передачи информации, и состоит из следующих модулей: источник, пере­датчик, канал связи, приемник и адресат. Источник информации задает некоторое множество сообщений. Генерация определенного сообщения заключается в выборе его из множества всех возможных. Сообщения бы­вают дискретными и непрерывными. Светофор или передача сообщения с помощью азбуки Морзе - примеры дискретного сигнала.

Особым видом сигналов являются знаки, которые в отличие от сигна­лов естественного происхождения создаются самоорганизующимися сис­темами и предназначаются для передачи и хранения информации. Есть знаки, входящие в четко организованную систему. Например, знаки дорожного движения, система цветов светофора, музыка, речь и языки, как естественные, так и искусственные. А есть внесистемные зна­ки - это или остатки некогда существовавших знаковых сис­тем, или знаки, созданные временно, обычно в небольших коллективах людей. Например, языки жестов и поз.

Количество информации

Количество информации - числовая характеристика сигнала, которая не зависит от его формы и содержания и характеризует степень неопре­деленности, которая исчезает после выбора (получения) сообщения в виде данного сигнала.

Р. Хартли предложил в качестве меры неопределенности логарифм от числа возможностей. Обычно количество информации представляется в виде, log2m, где m - число возможных выборов. Тогда стандартной единицей количества информации будет выбор из двух возможностей. Такая единица получила наименование бит и пред­ставляется одним символом двоичного алфавита, обычно это 0 или 1.


Дата добавления: 2019-09-13; просмотров: 201; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!