МОДУЛЬ 1. КОДИРОВАНИЕ ИНФОРМАЦИИ
Аннотация
Рассматриваются основные этапы развития информатики как фундаментальной науки, изучающей информационные процессы в природе и обществе. Показано, что в настоящее время информатика активно формируется как комплексное междисциплинарное направление, которое в перспективе сможет квалифицироваться как самостоятельная отрасль фундаментальной науки.
В материале содержатся краткие теоретические сведения по разделам курса «Теория информации» и «Кодирование информации». В конце каждого пункта приводится разбор решений типовых задач, предлагаются задачи для самостоятельной работы, и контрольные вопросы.
Понятие информации
Само понятие информации (information) возникло от латинского слова «information» - разъяснение, изложение и до середины 20 века предполагало сведения, передаваемые между людьми. В последние годы этот термин получил более широкое толкование - сведения, обмениваемые между людьми, человеком и автоматом, автоматом и автоматом; обмен сигналами в животном и растительном мире, передачу признаков от клетки к клетке, от организма к организму.
Можно выделить две формы существования информации:
· статическая информация (книги, рисунки, записи, фото и т, п.);
· динамическая информация (процессы передачи информации по каналам связи или в пространстве).
Информацию можно разделить на два вида: биологическую и социальную.
Биологическая информация обеспечивает жизнедеятельность отдельно взятого живого организма. К разновидностям биологической информации относится генетическая информация. Генетическая информация - это получаемые от предков и заложенные в наследственных структурах организмов в виде совокупности генов программы о составе, строении и характере обмена составляющих организм веществ.
|
|
Социальная информация неразрывно связана с практической деятельностью человека, поэтому можно выделить столько типов и разновидностей, сколько имеется видов деятельности человека. Например, юридическая, научная, техническая, технологическая, планово-экономическая, финансовая и т. п.
Основными свойствами информации являются неразрывная ее связь с определенной саморазвивающейся системой, структурированность, смысл и ценность.
Структурированность информации - это свойство, которое позволяет выделять информацию из получаемых сигналов.
Смысл или семантические характеристики информации позволяют определить цель и назначение информации (прагматические характеристики).
Ценность информации выражается в таких понятиях, как содержательность, своевременность, полнота, достоверность, оперативность.
|
|
Понятие информации относится к основным понятиям науки об управлении и тесно связано с такими понятиями, как «информационный процесс» (information system) и «информационные системы» (information process). Информационным называется процесс, возникающий в результате установления связи между двумя объектами: источником (генератором) информации и приемником (получателем) информации.
Информационная система - это хранилище информации, снабженное средствами ввода, поиска размещения и выдачи информации.
Под информацией понимаем любую совокупность сигналов, воздействий или сведений, которые система или объект воспринимает извне (входная информация), выдает в окружающую среду (выходная информация) или хранит в себе (внутренняя информация). Обмен информацией происходит посредством сигнала.
Сигнал- это материальный носитель информации (предмет, явление, процесс) в пространстве и во времени. Любой сигнал неразрывно связан с определенной системой, которая является системой связи или системой передачи информации и состоит из следующих модулей: источник, передатчик, канал связи, приемник и адресат. Источник информации задает некоторое множество сообщений. Генерация определенного сообщения заключается в выборе его из множества всех возможных. Сообщения бывают дискретными и непрерывными. Светофор или передача сообщения с помощью азбуки Морзе - примеры дискретного сигнала.
|
|
Особым видом сигналов являются знаки, которые в отличие от сигналов естественного происхождения создаются самоорганизующимися системами и предназначаются для передачи и хранения информации. Есть знаки, входящие в четко организованную систему, и внесистемные знаки. Например, знаки дорожного движения, система цветов светофора, музыка, речь и языки, как естественные, так и искусственные. Внесистемные знаки - это или остатки некогда существовавших знаковых систем, или знаки, созданные временно, обычно в небольших коллективах людей. Например, языки жестов и поз.
Количество информации
Количество информации - числовая характеристика сигнала, которая не зависит от его формы и содержания и характеризует степень неопределенности, которая исчезает после выбора (получения) сообщения в виде данного сигнала.
Р. Хартли предложил в качестве меры неопределенности логарифм от числа возможностей. Обычно количество информации представляется в виде, log2m, где m - число возможных выборов. Тогда стандартной единицей количества информации будет выбор из двух возможностей. Такая единица получила наименование бит и представляется одним символом двоичного алфавита, обычно это 0 или 1.
Дата добавления: 2019-09-08; просмотров: 244; Мы поможем в написании вашей работы! |
Мы поможем в написании ваших работ!