Информация как ключевое понятие информатики.



Laboratory Practice on Biophysics. Министерство здравоохранения Украины

Харьковский национальный медицинский университет

 

 

МЕДИЦИНСКАЯ ИНФОРМАТИКА .

УЧЕБНИК ДЛЯ СТУДЕНТОВ 2 КУРСА МЕДИЦИНСКИХ ВУЗОВ.

В 2 частях

Часть 1

 

 

 

 

Харьков Х Н МУ 201 7


УДК 681.3.06 (075)                                          

ББК  5.73фя73                                                 

М42                                                                        

Рецензенты:

Артамонова Н.О., к.б.н., с.н.с. отдела научного анализа и мониторинга интеллектуальной собственности ГУ "Институт медицинской радиологии им. С.П.Григорьева АМНУ.

Чайников С.И., к.т.н. проф. кафедры системотехники Харьковского национального университета радиоэлектроники.

Авторы: М.А. Бондаренко, Е.В. Высоцкая, Н.А. Гордиенко, О.В. Зайцева, Т.Р. Кочарова, В. Г. Книгавко, С.Н. Лад, О.П. Мещерякова, Н.П. Полетова, Е.Б. Радзишевская, Л.М. Рисованая, А.С. Солодовников, И.В. Шуба.

Утверждено ученым советом ХНМУ. Протокол № 2 от 23.02.17

 

М 42    Медицинская информатика: учебник для студентов 2 курса медицинских ВУЗов: в 2 ч./ под ред. В. Г. Книгавко − Харьков, ХНМУ, 2017. – Ч.1. - 152 с.

 

В учебнике с позиций системного подхода изложены основы медицинской информатики. Представлены сведения об основах общей информатики, медицинских информационных системах, основные аспекты защиты медицинских данных, вопросы кодирования, классификации, стандартизации и доказательной медицины. Обсуждаются проблемы визуализации медицинских данных и обработки биомедицинских сигналов, кратко излагаются сведения о медицинской аппаратуре и системах замещения утраченных функций. Достаточно широко представлены вопросы, касающиеся медицинских экпертных систем, управления и принятия решений в медицине. Рассмотрены вопросы нанотехнологий и наномедицины. Изложены сведения о компьютерных сетях различного уровня, включая Интернет. Первая книга учебника содержит материалы, относящиеся к первому и второму разделам курса, вторая — к третьему и четвертому. Учебное пособие предназначено для студентов медицинских вузов.

 

УДК 681.3.06 (075)

                                                                                ББК 5.73фя73

©Харьковский национальний медицинский университет, 2017


ТЕМА 1

ОСНОВЫ МЕДИЦИНСКОЙ ИНФОРМАТИКИ

План:

1. Цель и задачи медицинской информатики.

2. Информация как ключевое понятие информатики. Основные понятия информатики:

сообщение;

данные;

сигнал;

канал связи;

кодирование;

формула Шеннона.

3. Структура информатики.

4. Структурная схема ЭВМ. Принципы функционирования персональных компьютеров (ПК).

5. Программное обеспечение ПК. Классификация ПО.

Цель и задачи медицинской информатики

В последнее десятилетие 20-го века информационные технологии стали одним из важнейших факторов, влияющих на развитие общества. Их развитие касается государственных структур и институтов гражданского общества, экономической и социальной сфер, науки и образования, культуры и образа жизни людей. Многие развитые страны уже в полной мере осознали те возможности и преимущества, которые несёт с собой внедрение и распространение информационно-коммуникационных технологий. Что касается медицины, то современный этап её развития характеризуется широким внедрением новейших технических средств и технологий в деятельность служб и органов управления здравоохранением, лечебно-профилактических учреждений, учебных и научных заведений.

Современные компьютерные и информационные технологии, интеграция их с мультимедийной информацией справочного и обучающего характера сделали возможной практическую реализацию проблемы внедрения автоматизированных средств обработки медицинской информации на всех уровнях системы охраны здоровья населения. Появление медицинской информатики как новой дисциплины стало возможным благодаря прогрессу в компьютерных и коммуникационных технологиях.

Для дальнейшего успешного внедрения в медицину современных компьютерных систем и технологий, возникает необходимость в более качественной подготовке и переподготовке медицинских кадров всех уровней по медицинской информатике.

Медицинская информатика (МИ) – это научная дисциплина, занимающаяся исследованием процессов получения, передачи, обработки, хранения, распространения, представления информации с использованием информационной техники и технологии в медицине и здравоохранении.

Основной целью МИ является оптимизация информационных процессов в медицине за счет использования компьютерных технологий, обеспечивающая повышение качества охраны здоровья населения.

МИ является результатом перекрестного взаимодействия медицины и информатики: медицина поставляет комплекс задача – методы, а информатика обеспечивает комплекс средства-подходы.

В настоящее время медицинская информатика признана как самостоятельная область науки, имеющая свой предмет, объект изучения и занимающая место в ряду других медицинских дисциплин. С другой стороны, методология медицинской информатики основана на методологии общей информатики, в связи с чем изучение медицинской информатики необходимо начать с изучения основных положений информатики.

 

Информация как ключевое понятие информатики.

Основные понятия информатики

Понятие информации является ключевым понятием информатики. Любая деятельность человека представляет собой процесс сбора и переработки информации, принятия на ее основе решений и их выполнения. С появлением современных средств вычислительной техники информация стала выступать в качестве одного из важнейших ресурсов научно-технического прогресса.

Информация содержится в человеческой речи, текстах книг, журналов, газет, сообщениях радио и телевидения, показаниях приборов и т.д. Человек воспринимает информацию с помощью органов чувств. Хранит и перерабатывает ее с помощью мозга и центральной нервной системы. Передаваемая информация обычно касается каких-то предметов или нас самих и связана с событиями, происходящими в окружающем нас мире.

Таким образом, информация - это полученная в ходе переработки данных совокупность знаний (новых, ранее не известных сведений).

С понятием информации связаны такие понятия как сигнал, сообщение и данные.

Сообщение - это упорядоченная совокупность сигналов, способных переносить информацию.

Данные - это информация, представленная в формализованном виде и предназначенная для обработки ее техническими средствами, например ЭВМ.

Сигнал представляет собой любой процесс, воздействующий на сенсорные системы.

Каналом связи называется среда, по которой передаются сигналы. При устном разговоре сигналом является речь, а каналом связи – воздух, при радиопередаче музыки сигналом является звук, а каналом связи – электромагнитное поле и воздух, в нервной системе сигналом являются нервные импульсы, а каналами – нервные волокна.

Физическим носителем сигнала могут быть всевозможные виды материи, которые при передаче одного сигнала могут чередоваться. Например, при радиопередаче мысль, выражаемая словом, переданная за счет биоэлектрических импульсов голосовым мышцам, вызывая их сокращения, создает звуковой образ, который в результате колебания мембраны в микрофоне преобразуется в электрический импульс – сигнал, передаваемый на расстояние. При этом сигналы должны удовлетворять требованиям изоморфизма. Подизоморфизмом понимают такое соответствие физически различных явлений, при котором сохраняется, не искажается содержание передаваемого сообщения.

Нарушение изоморфизма приводит к искажению информации. Искажение сигналов, как вследствие нарушения изоморфизма, так и в результате внешних помех называютшумом.

Типичная схема передачи информации показаны на рис. 2.1. 

Рис. 1.1. Схема передачи информации.

 

В зависимости от значения передаваемых сигналов их делят на осведомительные, сообщающие какую-либо информацию, иисполнительные, которые заключают какую-либо команду к действию. Различают сигналыдискретныеинепрерывные. Примером дискретного сигнала является передача азбукой Морзе или передача цифр импульсами тока, примером непрерывного — изменение напряжения в цепи, соответствующее изменению температуры, изменение кровяного давления.

Всякое сообщение состоит из комбинации простых сигналов определенной физической природы. Полный набор таких сигналов называют алфавитом, один сигнал —буквой алфавита. Для передачи сообщения его следует описать с помощью какого-либо алфавита, иначе говоря, закодировать.Кодированием называется описание какого-либо сообщения с помощью определенного алфавита, т.е. установление однозначного соответствия между параметрами, характеризующими сигнал, и информацией. Перевод этого сообщения на другой алфавит называетсяперекодированием, расшифровка сообщения —декодированием.

Для передачи сообщений в хозяйственной и научной жизни кодирование производится человеком. Однако природой созданы естественные способы кодирования. Эти способы представляют огромный интерес для науки, например изучение способа кодирования наследственной информации о взрослом организме в зародышевой клетке. Применение кодирования позволяет использовать небольшой алфавит для передачи огромной информации. Оказалось, что любую информацию можно закодировать с помощью двух знаков (0;1). Такой код называетсядвоичным.

Передача любого сигнала связана с затратой энергии, однако количество передаваемой информации и тем более ее смысл не зависят от энергии сигнала. Более того, очень часто сигнал малой энергии передает сообщение, в результате которого может быть вызван процесс, связанный с огромной затратой энергии. Например, атомный взрыв может быть вызван нажатием кнопки-включателя соответствующего устройства, спокойная информация о чьем-либо неприглядном поступке может вызвать взрыв негодования.

В информатике не важно, какая энергия затрачена для передачи информации, но существенно, какое количество информации будет передано или может передать по тому или иному каналу связи. Для количественного подсчета информации следует отвлечься от смысла сообщения, аналогично тому, как для решения арифметического примера отвлекаются от конкретных предметов. Складывая, например 2 и 3, получаем 5, при этом несущественно, какие именно предметы складываем.

Как же вычисляется количество информации ( )? Из определения информации следует, что она (информация) имеет смысл только тогда, когда уменьшает степень незнания, т.е. процесс извлечения информации связан с увеличением определенности наших сведений об объекте. Сообщение несет информацию в том случае, если из совокупности реально возможных событий оно указывает на некоторое определенное. Например, читая историю болезни, врач получает информацию о болезнях данного пациента: из всего многообразия различных заболеваний выделены только те, которые перенес данный больной. Сообщение о чем-либо уже известном не несет информации. Так, например, для грамотного человека не содержит информации утверждение, что после 15-го числа месяца наступает 16-е число.

Чем больше различных возможностей имеет событие, тем большую информацию о нем несет сообщение. Так, при однократном бросании игральной кости (6 граней) получают бóльшую информацию, чем при бросании монеты (2 стороны), ибо первый случай имеет большее число равновозможных исходов, чем второй. Говорят, что количество информации изменяется в отношении, обратном вероятности.

Так как мерой неопределенности каких-либо событий является вероятность, то следует предположить, что количественная оценка информации связана с основными представлениями теории вероятностей. Действительно, современный метод подсчета информации основан на вероятностном подходе при рассмотрении систем связи и кодирования сообщений.

Количество информации, которое содержится в сообщении о некотором событии, зависит от вероятности этого события. При этом, чем больше вероятность события, тем меньше содержится информации в сообщении о том, что это событие произошло, и наоборот. Если вероятность события равна единице, то такое событие обязательно должно произойти, и сообщение об этом событии не несет информации (информация равна нулю): I(P(A)=1) = 0. Если вероятность события стремится к нулю, то количество информации стремится к бесконечности I(P(A)®0) ® ∞. Если учесть также, что информация должна быть аддитивной величиной (информация, содержащаяся в сообщении о том, что произошли два события, должна равняться сумме информаций, содержащихся в сообщениях о каждом из этих событий), то становится понятной причина выбора логарифмической функции для описания зависимости между количеством информации и вероятностью. Эта зависимость определяется формулой Хартли:

,

где I(A) – информация о том, что произошло событие А, Р(А) – вероятность этого события.

Знак минус в формуле стоит затем, чтобы сделать это выражение положительным, так как логарифм положительного числа меньшего единицы является отрицательным, а 0 £ Р(А) £ 1.

Единица измерения количества информации – бит. Из формулы Хартли следует, что, если р(А) = 0,5, то I(A) = 1. Поэтому можно сказать, что 1 бит – это информация, содержащаяся в сообщении о том, что произошло событие, вероятность которого равна 0,5. Если возможными являются только два события и они равновероятны, то их вероятности равны 0,5. Поэтому бит часто определяют так:1 бит – это информация, которая содержится в сообщении о том, что произошло одно из двух равновероятных событий. Для измерения информации используются также и такие единицы: 1 байт = 8 бит; 1 кбайт = 1024 байт; 1 Мбайт = 1024 кбайт, 1Гбайт = 1024 Мбайт.

Если могут прийти сообщения о разновероятных событиях, то количества информации, содержащиеся в сообщениях об этих событиях, будут отличаться. При этом часто важно знать, чему равно среднее количество информации, приходящееся на одно сообщение. Эта величина (обозначается ) может быть вычислена по формуле Шеннона:

,

где n - число всех возможных событий, о которых приходят сообщения, - вероятность i-го события (i = 1; 2; ... ; n).

Эту же величину часто обозначают буквой Н и называют информационной энтропией. В пользу такого названия можно привести такие доводы: 1) как информационная, так и термодинамическая энтропии логарифмически зависят от вероятности; 2) величина Н достигает максимума, если все  равны между собой, то есть, если ситуация наиболее неопределенная (непредсказуемая). Термодинамическая энтропия является мерой неупорядоченности системы, а информационная – мерой неопределенности ситуации. Здесь также есть аналогия*.

(*Примечание. Формула Шеннона очень похожа на используемую в физике формулу энтропии, выведенную Больцманом. Энтропия обозначает степень неупорядоченности статистических форм движения молекул. Энтропия максимальна при равновероятном распределении параметров движения молекул (направлении, скорости и пространственном положении). Значение энтропии уменьшается, если движение молекул упорядочить. По мере увеличения упорядоченности движения энтропия стремится к нулю (например, когда возможно только одно значение и направление скорости). При составлении какого-либо сообщения (текста) с помощью энтропии можно характеризовать степень неупорядоченности движения (чередования) символов. Текст с максимальной энтропией – это текст с равновероятным распределением всех букв алфавита, т.е. с бессмысленным чередованием букв. Если при составлении текста учтена реальная вероятность букв, то в получаемых таким образом «фразах» будет наблюдаться определенная упорядоченность движения букв, регламентируемая частотой их появления).

Структура информатики

Термин информатика возник в 60-х гг. во Франции для названия области, занимающейся автоматизированной обработкой информации с помощью электронных вычислительных машин. Французский термин informatigue (информатика) образован путем слияния слов information (информация) и automatigue (автоматика) и означает "информационная автоматика или автоматизированная переработка информации". В англоязычных странах этому термину соответствует синоним computer science (наука о компьютерной технике).

Выделение информатики как самостоятельной области человеческой деятельности в первую очередь связано с развитием компьютерной техники. Причем основная заслуга в этом принадлежит микропроцессорной технике, появление которой в середине 70-х гг. послужило началом второй электронной революции. С этого времени элементной базой вычислительной машины становятся интегральные схемы и микропроцессоры, а область, связанная с созданием и использованием компьютеров, получила мощный импульс в своем развитии. Термин "информатика" приобретает новое дыхание и используется не только для отображения достижений компьютерной техники, но и связывается с процессами передачи и обработки информации. Сейчас "информатика" трактуется как "комплексная научная и инженерная дисциплина, изучающая все аспекты разработки, проектирования, создания, оценки и функционирования систем переработки информации, основанных на ЭВМ, их применения и воздействия на различные области социальной практики".

Информатика в таком понимании нацелена на разработку общих методологических принципов построения информационных моделей. Поэтому методы информатики применимы всюду, где существует возможность описания объекта, явления, процесса и т.п. с помощью информационных моделей. Существует множество определений информатики, что связано с многогранностью ее функций, возможностей, средств и методов. Обобщая опубликованные в литературе по информатике определения этого термина можно предложить такую современную трактовку понятия «информатика»:

Информатика – это область человеческой деятельности, связанная с процессами преобразования информации с помощью компьютеров и их взаимодействием со средой применения.

Часто возникает путаница в понятиях "информатика" и "кибернетика". Попытаемся разъяснить их сходство и различие.

Основная концепция, заложенная Н. Винером в кибернетику, связана с разработкой теории управления сложными динамическими системами в разных областях человеческой деятельности. Кибернетика существует независимо от наличия или отсутствия компьютеров и является наукой об общих принципах управления в различных системах: технических, биологических, социальных и др.

Информатика занимается изучением процессов преобразования и создания новой информации более широко, практически не решая задачи управления различными объектами, как кибернетика. Поэтому может сложиться впечатление об информатике как о более емкой дисциплине, чем кибернетика. Однако, с другой стороны, информатика не занимается решением проблем, не связанных с использованием компьютерной техники, что, несомненно, сужает ее, казалось бы, обобщающий характер. Между этими двумя дисциплинами провести четкую границу не представляется возможным в связи с ее размытостью и неопределенностью, хотя существует довольно распространенное мнение, что информатика является одним из направлений кибернетики.

Информатика появилась благодаря развитию компьютерной техники, базируется на ней и совершенно немыслима без нее. Кибернетика же развивается сама по себе, строя различные модели управления объектами, хотя и очень активно использует все достижения компьютерной техники. Кибернетика и информатика, внешне очень похожие дисциплины, различаются, скорее всего, в расстановке акцентов: в информатике – на свойствах информации и аппаратно-программных средствах ее обработки; в кибернетике – на разработке концепций и построении моделей объектов с использованием, в частности, информационного подхода.

Информатика в широком смысле представляет собой единство разнообразных отраслей науки, техники и производства, связанных с переработкой информации главным образом с помощью компьютеров и телекоммуникационных средств связи во всех сферах человеческой деятельности.

В узком смысле информатику рассматривают как совокупность средств преобразования информации, которая включает технические средства (hardware), программные продукты (software), математические методы, модели и типовые алгоритмы (brainware)

В свою очередь, информатику как в целом, так и каждую ее часть, обычно рассматривают с разных позиций : как отрасль народного хозяйства, как фундаментальную науку, как прикладную дисциплину.

Информатика как отрасль народного хозяйства состоит из однородной совокупности предприятий разных форм хозяйствования, где занимаются производством компьютерной техники, программных продуктов и разработкой современной технологии переработки информации. Специфика и значение информатики как отрасли производства состоят в том, что от нее во многом зависит рост производительности труда в других отраслях народного хозяйства. Более того, для нормального развития этих отраслей производительность труда в самой информатике должна возрастать более высокими темпами. Это связано с тем, что в современном обществе информация все чаще выступает как предмет конечного потребления: людям необходима информация о событиях, происходящих в мире, о предметах и явлениях, относящихся к их профессиональной деятельности, о развитии науки и самого общества. Дальнейший рост производительности труда и уровня благосостояния возможен лишь на основе использования новых интеллектуальных средств и человеко-машинных интерфейсов, ориентированных на прием и обработку больших объемов мультимедийной информации (текст, графика, видеоизображение, звук, анимация). При отсутствии достаточных темпов увеличения производительности труда в информатике может произойти существенное замедление роста производительности труда во всем народном хозяйстве. В настоящее время около 50% всех рабочих мест в мире поддерживается средствами обработки информации.

Информатика как фундаментальная наука занимается разработкой методологии создания информационного обеспечения процессов управления любыми объектами на базе компьютерных информационных систем. Существует мнение, что одна из главных задач этой науки – выяснение, что такое информационные системы, какое место они занимают, какую должны иметь структуру, как функционируют, какие общие закономерности им свойственны. В Европе можно выделить следующие основные научные направления в области информатики:

§ разработка сетевой структуры,

§ компьютерно-интегрированные производства,

§ экономическая и медицинская информатика,

§ информатика социального страхования и окружающей среды,

§ профессиональные информационные системы.

Цель фундаментальных исследований в информатике – получение обобщенных знаний о любых информационных системах, выявление общих закономерностей их построения и функционирования.

Информатика как прикладная дисциплина занимается:

§ изучением закономерностей в информационных процессах (накопление, переработка, распространение);

§ cозданием информационных моделей коммуникаций в различных областях человеческой деятельности;

§ разработкой информационных систем и технологий в конкретных областях и выработкой рекомендаций относительно их жизненного цикла (этапы проектирования и разработки систем, их производства, функционирования и т.д.).

Главная функция информатики заключается в разработке методов и средств преобразования информации и их использовании в организации технологического процесса переработки информации.

Задачи информатики состоят в следующем:

· исследование информационных процессов любой природы;

· разработка информационной техники и создание новейшей технологии переработки информации на базе полученных результатов исследования информационных процессов;

· решение научных и инженерных проблем создания, внедрения и обеспечения эффективного использования компьютерной техники и технологии во всех сферах общественной жизни.

Информатика существует не сама по себе, а является комплексной научно-технической дисциплиной, призванной создавать новую технику и информационные технологии для решения проблем в других областях. Она предоставляет методы и средства исследования другим областям, даже таким, где считается невозможным применение количественных методов из-за неформализуемости процессов и явлений. Особенно следует выделить в информатике методы математического моделирования и методы распознавания образов, практическая реализация которых стала возможной благодаря достижениям компьютерной техники.

Комплекс индустрии информатики станет ведущим в информационном обществе. Потребности во всë бóльшей информированности общества, в существенной степени, удовлетворяются за счет прогресса информатики как единства науки, техники и производства.

 

Структурная схема ЭВМ. Принципы функционирования персональных компьютеров (ПК)

Как уже упоминалось ранее, информационные технологии - это преимущественно компьютеризированные способы обработки, хранения, передачи и использования информации. Хотя, строго говоря, понятие информационные технологии шире, чем компьютерные технологии, применительно к современной информатике они практически совпадают.

Совокупность устройств, предназначенных для автоматической или автоматизированной обработки данных называется вычислительной техникой.

Конкретный набор взаимодействующих между собой устройств и программ, предназначенных для обслуживания одного рабочего места или участка, называют вычислительной системой.

Центральным устройством большинства вычислительных систем компьютер.

Слово «компьютер» означает вычислитель. В своем развитии вычислительная техника прошла разные этапы:

à палочки для вычислений, счеты;

à 1642 год, Блез Паскаль изобрел механическое устройство для сложения чисел;

à 1673 год, Готфрид Вильгельм Лейбниц создал арифмометр, позволяющий выполнять все четыре арифметических действия;

à вторая половина ХIX века, Чарльз Бэббидж разработал основные идеи универсального вычислительного устройства – аналитической программируемой машины;

à  1943 год, американец Говард Эйкен на основе идей Ч.Бэббиджа создал на базе электромеханических реле вычислительную машину «Марк-1»;

К этому времени потребность в автоматизации вычислений стала настолько велика, что над созданием подобных машин одновременно работало несколько групп специалистов. Созданные ими электронные вычислительные машины (ЭВМ) уже на основе электронных ламп работали в тысячу раз быстрее, чем «Марк-1». В 1945 году к этой работе был привлечен известный математик Джон фон Нейман. Итогом его работы стал доклад, который получил широкую известность, поскольку в нем фон Нейман ясно и просто сформулировал общие принципы функционирования универсальных вычислительных устройств, т.е. компьютеров.

Из этого доклада следовало, что для эффективной работы компьютера он должен содержать следующие устройства:

* арифметическо-логическое устройство, выполняющее арифметические и логические операции;

* устройство управления, которое организует процесс выполнения программ;

* запоминающее устройство, или память для хранения программ и данных;

* внешние устройства для ввода-вывода информации.

В общих чертах работу компьютера можно описать так. Вначале с помощью какого-либо внешнего устройства в память компьютера вводится программа. Устройство управления считывает содержание ячейки памяти, где находится первая команда программы и организует ее выполнение. После выполнения первой команды устройство управления начинает выполнять команду, расположенную в последующей ячейке памяти и т.д. Этот порядок может быть нарушен с помощью команд передачи управления (перехода), которые указывают устройству управления, что ему следует выполнять команды из других ячеек памяти.

Таким образом, управляющее устройство выполняет инструкции программы автоматически, т.е. без вмешательства человека. При этом управляющее устройство может обмениваться информацией с оперативной памятью и внешними устройствами.

Следует отметить, что схема устройства современного компьютера несколько отличается от приведенной выше. В частности, арифметическо-логическое устройство и устройство управления объединены в единое устройство – центральный процессор. Кроме того, процесс выполнения программ может прерываться для выполнения неотложных действий, связанных с поступившими сигналами от внешних устройств компьютера – прерываний. Тем не менее, большинство современных компьютеров в основных чертах соответствуют принципам, изложенным фон Нейманом.

Развитие электроники во второй половине ХХ века (транзисторы – 1948 год, интегральные микросхемы – 1958 год, микропроцессор – 1969 год) привело к значительному уменьшению габаритов и стоимости ЭВМ, что и предопределило появление персональных ЭВМ, иначе – персональных компьютеров (ПК).

После этого было создано большое количество ПК до тех пор, пока фирмой IBM в 1981 году не был разработан компьютер IBM PC, который стал стандартом персонального компьютера. Сейчас такие компьютеры («совместимые с IBM PC») составляют более 90% всех производимых в мире персональных компьютеров.

Столь значительный успех был достигнут благодаря использованию принципа открытой архитектуры. То есть компьютер был сделан не единым неразъемным устройством, а допускал возможность его сборки из независимо изготовленных частей аналогично детскому конструктору. При этом методы сопряжения устройств с компьютером IBM PC не только не держались в секрете, но и были доступны всем желающим.

Обычно современные персональные компьютеры IBM PC состоят из трех основных блоков: системного блока; клавиатуры для ввода символов и монитора (дисплея). Структурная схема ПК показана на рис. 1.2.

Системный блок имеет модульную структуру. Главный элемент – микропроцессор, выполняющий все основные арифметические и логические операции и управляющий синхронной работой всех остальных блоков ПК. В компьютерах типа IBM PC используются микропроцессоры фирмы Intel, а также совместимые с ними микропроцессоры других фирм (AMD, IBM и др).

Основными параметрами процессора являются: разрядность, рабочая тактовая частота и размер кэш-памяти. Разрядность процессора показывает, сколько бит данных он может принять и обработать в своих регистрах за один раз (за один такт); рабочая тактовая частота определяет скорость, с которой осуществляются операции в процессоре; кэш-память (сверхбыстродействующая память, расположенная внутри процессора) позволяет снизить количество обращений процессора к значительно более медленной оперативной памяти.

Очень важным элементом компьютера является его память. Она обеспечивается разными элементами.

· Оперативная память (ОЗУ, англ. RAM, Random Access Memory – память с произвольным доступом) - предназначена для временного хранения данных, когда компьютер включен. Это та память,

Рис. 1.2. Структурная схема ПК.

 

которая непосредственно работает с процессором, передавая в него данные и получая результаты обработки. В ней хранятся данные и программы, с которыми работает ПК в текущий момент времени. Оперативная память, будучи относительно небольшой по объему, обладает высоким быстродействием. Обычно ОЗУ выполняется в виде набора микросхем. При выключении компьютера информация, находящаяся в ОЗУ стирается.

· Долговременная (внешняя) память относится к устройствам, предназначенным для долговременного хранения больших объемов данных и программ. Она имеет невысокое быстродействие но большую емкость, и хранящаяся в ней информация не стирается при выключении компьютера. Под внешней памятью компьютера подразумевают обычно как устройства для чтения/записи информации - накопители, так и устройства, где непосредственно хранится информация - носители информации. Существуют дисководы и, соответственно, носители информации на магнитных дисках, жесткие магнитные диски (винчестеры) и дисководы для компакт-дисков (CD-ROM), DVD, BD, флэш-карта и др.

· Кэш-память (Cache Memory) – специальная сверхбыстрая оперативная память, которая располагается как бы «между» микропроцессором и оперативной памятью и хранит копии наиболее часто используемых участков оперативной памяти.

· Постоянная память (ПЗУ) в которую внесены данные при изготовлении ПК. Эти данные не могут быть изменены, выполняемые на компьютере программы могут только их считывать. Поэтому часто такой вид памяти еще называют ROM (read only memory). Большая часть программ, размещенных в ПЗУ связана с обслуживанием операций ввода-вывода, соответственно содержимое ПЗУ часто называют BIOS (Basic Input-Output System – базовая система ввода-вывода).

· Полупостоянная память используется для хранения параметров конфигурации компьютера. Этот вид памяти еще называют СMOS-памятью, поскольку она выполняется по технологии СMOS (complementary metal-oxide semiconductor), обладающей низким энергопотреблением. Содержимое СMOS-памяти не изменяется при выключении компьютера, так как для ее электропитания используется специальный аккумулятор.

· Видеопамять – используется для хранения данных изображения, выводимого на экран монитора. Эта память входит в состав видеоконтроллера – электронной схемы, управляющей выводом изображения на экран.

Устройства ввода относятся к периферийным устройствам ПК и предназначены для ввода информации в ПК. Основными устройствами ввода данных в компьютер являются клавиатура, мышь и сканер. Сканеры предназначены для ввода графической и текстовой информации, нанесенной на бумажный носитель. Кроме того, компьютер может воспринимать информацию и с датчиков - в виде электрических сигналов через специальное аналогово-цифровые преобразователи (АЦП).

Устройства вывода также относятся к периферийным устройствам и предназначены для предоставления пользователям результатов обработки данных. Самые распространенные устройства вывода - монитор и печатающее устройство, или принтер. Существуют устройства для получения графиков и чертежей - графопостроители, или плоттеры. Компьютер также способен выводить информацию в виде электрических сигналов на какие-либо исполнительные устройства через цифрово-аналоговые преобразователи (ЦАП).

К устройствам ввода-вывода относится также модем. Его целью является обмен информацией между удаленными компьютерами с помощью различных каналов связи (например, телефонной линии).

Обмен информацией между оперативной памятью и различными устройствами осуществляется с помощью контроллеров и магистралей обмена данных. Для каждого устройства в компьютере имеется электронная схема, которая им управляет. Эта схема называется контроллером (или адаптером). Все контроллеры взаимодействуют с процессором и оперативной памятью через системную магистраль передачи данных (шину).

Шины – это соединения маршрутов данных, связывающие центральный процессор компьютера с модулями оперативной памяти и иными устройствами, с которыми он взаимодействует. Системная (front-side) шина связывает центральный процессор с основной памятью компьютера и шинами периферийных устройств. Шина кэш-памяти (backside) – достаточно быстрое соединение, которое центральный процессор использует для обмена информацией с внешней кэш-памятью, в том числе и с КЭШа второго уровня.

Упрощенно шину можно представить себе как набор параллельных проводов, каждый из которых передает один бит информации: 1или 0. количество проводов в шине – это ширина шины. Именно ширина шины и есть то количество битов (разрядов), которое определяет количество одновременно предаваемой информации. Чем шире шина (больше ее разрядность), тем больше данных можно передать одновременно, тем быстрее работает компьютер.

 


Дата добавления: 2018-11-24; просмотров: 256; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!