Классификация ВС по типу ЭВМ или процессоров



(Слайд 3)

 

По типу ЭВМ или процессоров, используемых для по­строения ВС, различают однородныесистемы, предполагающие объединение однотипных ЭВМ и неоднородныесистемы, предполагающие объединение разнотипных ЭВМ.

В однородных системах значительно упрощается разработка и обслуживание технических и программных (в основном ОС) средств. В них обеспечивается воз­можность стандартизации и унификации соединений и процедур вза­имодействия элементов системы. Упрощается обслуживание систем, облегчается модернизация и их развитие.

 В неоднородныхВС соединяемые элементы ВС очень силь­но отличаются по своим техническим и функциональным характерис­тикам. Обычно это связано с необходимостью параллельного выпол­нения многофункциональной обработки. Так, при построении сетевых ММС объединяются в комплексы коммуникационные ЭВМ, выполняющие функции свя­зи, контроля получаемой и передаваемой информации, формирование пакетов задач и т.д., и ЭВМ обработки данных, выполняющие собственно обработку данных.

 

 

Классификация ВС по степени территориальной разобщенности вычислительных модулей

(Слайд 3)

 

ВС делятся на системы совмещенного (сосре­доточенного) и распределенного (разобщенного) типов. Обычно та­кое деление касается только многомашинных систем (ММС).

 Многопроцессорные системы (МПС) относятся к системам совмещенного типа. Два уровня их интеграции: система с процессорами на одном кристалле (многоядерность) - система из нескольких параллельно работающих процессоров в одной ЭВМ (многопроцессорность).

В совмещенных и распределенных MMС сильно различается опе­ративность взаимодействия в зависимости от удаленности ЭВМ. Как правило, все выпускаемые в мире ЭВМ имеют средства прямого взаимодействия и средства подключения к сетям ЭВМ. Для ПК такими средствами являются модемы и сетевые карты.

 

 

Классификация ВС по методам управления элементами ВС

(Слайд 3)

 

По методам управления элементами ВС различа­ют централизованные, децентрализованныеи сосмешанным управ­лением. Помимо параллельных вычислений, производимых элемента­ми системы, необходимо выделять и кон­тролировать ресурсы на обеспечение управле­ния этими вычислениями, распределять нагрузку между элементами ВС и  координировать их взаимодействие.

В централизованныхВСза это отвечает главная (диспетчерская) ЭВМ (процессор). Эти функции могут передаваться и другой ЭВМ (процессору), что способствует повышению надежности системы. Централизованные системы имеют более простые ОС.

 В децентрализованныхсистемахфункции управления распределены между ее элементами. Каждая ЭВМ (процессор) системы сохраняет известную автономию. Это наиболее перспективные ВС.

 В системах сосмешаннымуправлениемсовмещаются процедуры централизованного и децентрализованного управления. Перераспределение функций осуществляется в ходе вычислительного процесса, исходя из сложившейся ситуации.

 

 

Прочие классификационные признаки ВС

 (Слайд 3)

 

По принципу закрепления вычислительных функ­ций за отдельными ЭВМ (процессорами) различают системы сжест­кимиплавающимзакреплениемфункций. В зависимости от типа ВС следует решать задачи статического или динамического размещения программных модулей и массивов данных, обеспечивая необходимую гибкость системы и надежность ее функционирования.

По режиму работы ВС различают системы, работающие в оперативноми неоперативномвременныхрежимах. Первые, как правило, используют режим реального масштаба времени. Этот ре­жим характеризуется жесткими ограничениями на время решения за­дач в системе и предполагает высокую степень автоматизации про­цедур ввода-вывода и обработки данных.

Архитектура вычислительных систем

 

Архитектура ВС - совокупность характеристик и параметров, опре­деляющих функционально-логическую и структурную организацию системы и затрагивающий в основном уровень параллельно работающих вычислителей.

 

Классификация архитектур была предложена М. Флинном (М. Flynn) в начале 60-х гг. XX в. В основу такой классификации заложено два возможных вида параллелизма:

 

· независимость потоков заданий (команд),существующих в системе,

· независимость (несвязанность) данных, об­рабатываемых в каждом потоке.

 

С появлением систем, ориентирован­ных на потоки данных и использование ассоциативной обработки, данная классификация может быть некорректной. Но она является справедливой для ВС, в которых вычислительные модули построены на принципах классической структуры ЭВМ:

 

· ОКОД  - одиночный поток команд - одиночный поток данных (SISD - Single Instruction Single Data -одиноч­ный поток инструкций - одиночный поток данных)(Слайд 7);

Архитектура ОКОД(содним вычислителем) охватывает все однопроцессорные и одномашинные варианты систем. Все ЭВМ клас­сической структуры попадают в этот класс. Здесь параллелизм вычисле­ний обеспечивается путем совмещения выполнения операций отдельны­ми блоками АЛУ, а также параллельной работой устройств ввода-вывода информации и процессора.

· ОКМД - одиночный поток команд - множественный поток данных (SIMD- Single Instruction Multiple Data - одиночный поток инструкций - множественный поток данных) (Слайд 8);

Архитектура ОКМДпредполагает создание структур векторной или матричной обработки. Системы этого типа обычно строятся как однородные, т.е. процессорные элементы, входящие в систему, иден­тичны и все они управляются одной и той же последовательностью команд. Однако каждый процессор обрабатывает свой поток данных - задачи обработки матриц или векто­ров (массивов), задачи решения систем линейных и нелинейных ал­гебраических и дифференциальных уравнений, задачи теории поля и др. В структурах данной архитектуры, как правило, соединения между процессорами напоминают мат­рицу.

· МКОД - множественный поток команд - одиночный поток данных (MISD - Multiple Instruction Single Data - множествен­ный поток инструкций - одиночный поток данных) (Слайд 9);

Архитектура МКОДпредполагает построение своеобразного процессорного конвейера, в котором результаты обработки переда­ются от одного процессора к другому по цепочке. В современных ЭВМ по этому принципу реализована схема совмещения операций, в которой параллельно работают различные функциональные блоки, и каждый из них делает свою часть в общем цикле обработки команды.

· МКМД - множественный поток команд - множественный поток данных (MIMD - Multiple Instruction Multiple Data - множественный поток инструкций - множественный поток данных) (Слайд 10).

Архитектура МКМДпредполагает, что все процессоры системы работают с различными программами и с индивидуальным набором данных. В простейшем случае они могут быть автономны и независи­мы. Такая схема использования ВС часто применяется во многих круп­ных вычислительных центрах для увеличения пропускной способ­ности центра.

МКМД - архитектура является наиболее перспективной для вычислительных систем. Ей присущи все перечисленные виды параллелизма. Этот класс дает большое разнообразие структур, сильно отличающихся друг от друга своими характеристиками (См. Рис. 2-10).

3. Многопроцессорные структуры ВС (пример построения)

 

Процессоры Power7, разработка ко­торых обошлась в 3 млрд. долл., содер­жат от 6 до 8 ядер на одном кристалле, каждое из которых способно поддер­живать до четырех потоков вычисле­ний, а также кэш-память eDRAM тре­тьего уровня. Процессоры выполнены на основе 45-нанометровой техноло­гии, содержат более миллиарда тран­зисторов, работают на тактовых часто­тах до 4,14 ГГц. Они могут выполнять 32 параллельные задачи, что в четыре раза превышает возможности предыдущего процессора  Power6.

На базе этих процессоров выпущена линейка серверов (Слайд 11):

 

1. Бизнес-сервер начально­го уровня IBM Power 750 Express пред­назначен для ИС предприятий среднего масшта­ба и имеет четыре процессор­ных разъема, что позволяет использо­вать в вычислениях до 32 процессорных ядер.

2. Сервер IBM Power 755, также со­держащий до 32ядер, оптимизирован для выполнения аналитических при­ложений, включая моделирование по­годных условий, расчеты в области хи­мии и физики.

3. Бизнес-сервер корпоративного клас­са IBM Power 770 может содержать до 64 ядер Power7 и рекомендован для решения кри­тически важных задач предприятий.

4. Бизнес-сервер корпоративного клас­са IBM Power 780, также со­держащий до 64 ядер является масштабируемым серве­ром старшего класса и применяется для решения таких ресурсоемких задач, как, на­пример, обработка и анализ транзак­ций в системах, управляющих сетя­ми энергоснабжения.

 

Для  процессоров Power7 разработан ряд новых технологий:

 

· технология TurboCore позволяет перераспределять ресурсы каж­дого процессора, выделяя активным ядрам, работающим на максимальной частоте, кэш-память других ядер, а так­же их каналы взаимодействия с опера­тивной памятью;

· техноло­гия Intelligent Threads дает возмож­ность оптимизировать нагрузку, дина­мически выбирая число потоков, под­держиваемых каждым ядром;

· техно­логия EnergyScale позволяет варьиро­вать тактовую частоту, снижая потре­бление электроэнергии.

 

В конце 2010 года в IBM планировали выпу­стить серверы на базе Power7, содержа­щие до 256 ядер.

Суперкомпьютеры

 

В общем виде, под суперкомпьютеромпринято понимать высокопараллельную многопроцессорную ВС с быстродей­ствием порядка от 100 000 MFloPS; емкостью оперативной памяти от 10 Гбайт, дисковой памяти от10 Тбайт (1 Тбайт = 1000 Гбайт) и разрядностью 64-128 бит (Слайд 12).

 

Производительность современных суперкомпьютеров измеряется в терафлопах (триллионах операций с плавающей запятой в секунду) и петафлопах (квадрильонах операций с плавающей запятой в секунду). Иногда используются термины  «терафлопс» и «петафлопс».

Создать такиевысокопроизводительные компьютеры на одном микропроцессоре (МП) не представляется возможным ввиду ограничения, обусловленного конечным значениемскорости распространения электромагнитных волн (300 000 км/с).  Времяраспространения сигнала на расстояние несколько миллиметров (линейный размер стороныМП) при быстродействии 100 млрд. операций/с становится соиз­меримым со временем выполнения одной операции.

 

В суперкомпьютерах используются три варианта архитектуры МПВС (Слайд 13):

 

· МКМД - структура в классическом ее варианте (например, в раннем классическом суперкомпьютере ЭБР фирмы Burrought);

· параллельно-конвейерная модификация, иначе MКОД, то есть многопроцессор­ная МКОД -структура (например, в первых отечественных суперкомпьютерах «Эльбрус 3,4»);

· параллельно-векторная модификация, иначе ОКМД, то есть многопроцессор­ная ОКМД -структура (например, в современных суперкомпьютерах Cray).

 

Наибольшую эффективность показала ОКМД - структура, поэтому в современ­ных суперкомпьютерах чаще всего используется именно она (суперкомпьютеры фирмCray, Fujitsu, NEC, Hitachi и т. д.).

Суперкомпьютеры можно использовать для моделирования систем безопасности, двигателей машин, расчета траектории движения тайфунов, планирования и оптимизации грузоперевозок, для видеомонтажа, спецэффектов и анимации в кино и на телевидении и многих других сложных задач.

 

 

История создания

(Слайд 14).

Первый суперкомпьютер был задуман в 1960 исоздан в 1972 году (машина ILLIAC-IV с производительностью 20 MFloPS), начинаяс 1974 года лидерство в разработке суперкомпьютеров захватила фирма GrayResearch.

В СССР, начиная с 70-х годов ХХ века, практически все ЭВМ, малые ЭВМ и ПК за редким исключением (ЭВМ «Рута 110») копировали зарубежные разработки и, в первую оче­редь, разработки фирм США. Но среди лучших суперкомпьютеров в свое время были и оригинальные отечественные суперкомпьютеры.

В СССР была разработана, реализовывалась государственная программа разработки суперкомпьютеров, впоследствии практически замороженная. В рамках этой программы были разработаны и выпущены как суперкомпьютеры, по­вторяющие архитектуру CrayЭлектроника СС БИС»), так и оригинальные разработ­ки: ЕС 1191 (1200 MFloPS), офисные варианты ЕС 1195 (50 MFloPS), ЕС 1191.01 (500 MFloPS), ЕС 1191.10 (2000 MFloPS) и «Эльбрус» модификаций 1,2,3.

Суперкомпьютер «Эльбрус ЗБ» в процессе разработки достиг производительности 20 000 MFloPS.

Использовались операционные системы «Эльбрус» и UNIX, поддерживающие боль­шое число языков программирования: Эль, Фортран, Паскаль, Кобол, Пролог и т. д.

Для суперкомпьютера «Эльбрус» был разработан «Эль2К» - один из первых в мире микропроцессоров имеющий VLIW-архитектуру.

 

В декабре 1996года фирма Intel объявила о создании суперкомпьютера Sandia, впервые в мире преодолевшего терафлопный барьер быстродействия. За 1 час 40 минут компьютер выполнил 6,4 квдрл. вычислений с плавающей запя­той.

 Конфигурация представляла собой 57 шкафов, содержащих более 7000 процессоров PentiumPro с тактовой частотой 200 МГц и оперативную память 454 Гбайт. Окон­чательный вариант суперкомпьютера имел производительность 1,4 TFLoPS. Он состоит из 86 шкафов общей площадью 160 кв. м. В этих шкафах размещается 573 Гбайт оперативной и 2250 Гбайт дисковой памяти. Масса компьютера состав­ляла около 45 тонн, а пиковое потребление энергии — 850 кВт.

 

 

Современные суперкомпьютеры

(Слайд 15).

Суперкомпьютеры используются в различных областях, где требуются сложные вычисления и обрабатываются огромные массивы изменяющейся информации. Например, для моделирования в области космоса и авиастроения, для моделирования систем безопасности, двигателей машин, расчета траектории движения тайфунов, планирования и оптимизации грузоперевозок, для видеомонтажа, спецэффектов и анимации в кино и на телевидении и др:

 

1. Суперкомпьютер Cray XT4с увеличенной производительностью (в сравнении с Cray XT3) создан в 2007 году на процессорах AMD - двуядерных чипах Opteron.. Он поддерживает до 30 тыс. процессоров Opteron, подключаемых при помощи чипов Cray SeaStar 2, которые используют возможности шины Hiper-TransSport и ускоряют обмен данными между процессорами. Вопреки традициям ти­пичной кластерной архитектуры (См. ниже), у Cray ХТ4 каждый процессор имеет собственную микросхему для связи с соседними. Суперкомпьютер совместим с четырехъядерными процессорами AMD.

2. Суперкомпьютер BlueGene/L с пиковой производительностью в 478,2 терафлопа (478,2 триллиона операций в секунду) в начале 2008 года был самым быстрым на Земле.

 

3. Суперкомпьютер Pleiades.  NASA совместно с SGI и Intel в 2009 году начала создание одного из самых быстрых суперкомпьютеров на Земле. Новый суперкомпьютер будет использоваться в Калифорнийском исследовательском центреЭймс (Ames Research Center) для различных имитационных задач и задач по моделированию. К 2012 году планируется нарастить мощность до 10 петафлоп.

Производительность нынешнего суперкомпьютера NASA, Columbia, составляет 88,88 терафлопса. Он используется для изучения поведения гиперзвукового самолета, имитации высадки посадочных модулей и моделирования ткани скафандра.

         

4. Суперкомпьютер Blue Water. К 2011 году IBM планирует создать еще один суперкомпьютер Blue Water, мощность которого составит не менее петафлопа. Заказчиком этого вычислительного комплекса является Национальный центр прикладных систем для суперкомпьютеров при университете штата Иллинойс.

Его основой станут 200 тыс. процессорных ядер и свыше 1 петабайта оперативной памяти. Общая емкость его дисковых накопителей составит 10 петабайт.

 

5. Суперкомпьютер Dawning 5000. Китай является второй страной, после США, сумевшей в 2008 году создать суперкомпьютер производительностью более 100 терафлоп. У Dawning 5000 пиковая производительность достигает 230 терафлоп. Dawning 5000 в том году вошел в десятку мощнейших суперкомпьютеров мира. Кроме того, Китай планирует создать к 2011 году петафлоповый суперкомпьютер Шугуан-5000. Его основой станут китайские процессоры Godson 3.

 

6. Суперкомпьютер Sequoia. Компания IBM в 2009 году объявила о планах построения в Ливерморской национальной лаборатории министерства энергетики США суперкомпьютера Sequoia, мощность которого составит 20 петафлоп. Он будет включать 1,6 млн. процессоров. Объем оперативной памяти системы составит 1,6 петабайта.Площадь, которую будет занимать Sequoia, составит 318 кв.м.

Предполагается, что его запустят в 2012 годудля изучения ядерного оружия, в частности, для моделирования его испытаний.

Представители IBM подчеркивают, Sequoia может использоваться и в мирных целях. В частности, этот суперкомпьютер способен моделировать погодные изменения в 40 раз быстрее используемых в настоящее время систем. Для моделирования землетрясения ему понадобится в 50 раз меньше времени, чем современным вычислительным комплексам.

 


Дата добавления: 2018-04-04; просмотров: 1256; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!