В каком году был создан первый суперкомпьютер. Супер ЭВМ Понятие Супер ЭВМ Цели Супер ЭВМ Характеристики производительности Супер ЭВМ Программное обеспечение Супер ЭВМ Архитектура совеременных Супер. Какой он, экран в телефоне Honor

У большинства людей слово "компьютер" ассоциируется в первую очередь с персоналкой, которую можно увидеть сегодня не только в любом офисе, но и во многих квартирах. Однако не стоит забывать, что ПК - это лишь часть компьютерного мира, где существуют гораздо более мощные и сложные вычислительные системы, недоступные рядовому пользователю.


Многие, наверно, слышали о компьютере по имени Deep Blue, который в 1997 году обыграл самого Гарри Каспарова. Интуитивно понятно, что такая машина не могла быть простой персоналкой. Другой пример - отечественный компьютер МВС-1000 производительностью 200 миллиардов операций в секунду, недавно установленный в Межведомственном суперкомпьютерном центре в Москве. Кроме того, в прессе время от времени появляются сообщения о нелегальных поставках в Россию вычислительной техники, попадающей под эмбарго американского правительства.

Подобные компьютеры для многих так и остаются тайной за семью печатями, окруженной ореолом ассоциаций с чем-то очень большим: огромные размеры, сверхсложные задачи, крупные фирмы и компании, невероятные скорости работы и т.д. Одним словом, супер-ЭВМ, что-то далекое и недоступное. Между тем, если вам хотя бы раз приходилось пользоваться услугами серьезных поисковых систем в Интернете, вы, сами того не подозревая, имели дело с одним из приложений суперкомпьютерных технологий.

Что такое суперкомпьютер?
Считается, что супер-ЭВМ - это компьютеры с максимальной производительностью. Однако быстрое развитие компьютерной индустрии делает это понятие весьма и весьма относительным: то, что десять лет назад можно было назвать суперкомпьютером, сегодня под это определение уже не подпадает. Производительность первых супер-ЭВМ начала 70-х годов была сравнима с производительностью современных ПК на базе традиционных процессоров Pentium. По сегодняшним меркам ни те, ни другие к суперкомпьютерам, конечно же, не относятся.

В любом компьютере все основные параметры взаимосвязаны. Трудно себе представить универсальный компьютер, имеющий высокое быстродействие и мизерную оперативную память либо огромную оперативную память и небольшой объем дисков. Отсюда простой вывод: супер-ЭВМ - это компьютер, имеющий не только максимальную производительность, но и максимальный объем оперативной и дисковой памяти в совокупности со специализированным программным обеспечением, с помощью которого этим монстром можно эффективно пользоваться.

Суперкомпьютерам не раз пытались давать универсальные определения - иногда они получались серьезными, иногда ироничными. Например, как-то предлагалось считать суперкомпьютером машину, вес которой превышает одну тонну. Несколько лет назад был предложен и такой вариант: суперкомпьютер - это устройство, сводящее проблему вычислений к проблеме ввода/вывода. В самом деле, задачи, которые раньше вычислялись очень долго, на супер-ЭВМ выполняются мгновенно, и почти все время теперь уходит на более медленные процедуры ввода и вывода данных, производящиеся, как правило, с прежней скоростью.

Так что же такое современный суперкомпьютер? Самая мощная ЭВМ на сегодняшний день - это система Intel ASCI RED, построенная по заказу Министерства энергетики США. Чтобы представить себе возможности этого суперкомпьютера, достаточно сказать, что он объединяет в себе 9632 (!) процессора Pentium Pro, имеет более 600 Гбайт оперативной памяти и общую производительность в 3200 миллиардов операций в секунду. Человеку потребовалось бы 100000 лет, чтобы даже с калькулятором выполнить все те операции, которые этот компьютер делает всего за 1 секунду!

Создать подобную вычислительную систему - все равно, что построить целый завод со своими системами охлаждения, бесперебойного питания и т.д. Понятно, что любой суперкомпьютер, даже в более умеренной конфигурации, должен стоить не один миллион долларов США: ради интереса прикиньте, сколько стоят, скажем, лишь 600 Гбайт оперативной памяти? Возникает естественный вопрос: какие задачи настолько важны, что требуются компьютеры стоимостью в несколько миллионов долларов? Или еще один: какие задачи настолько сложны, что хорошего Pentium III для их решения недостаточно?

Нужны ли нам суперкомпьютеры?
Оказывается, существует целый ряд жизненно важных проблем, которые просто невозможно решать без использования суперкомпьютерных технологий.

Возьмем, к примеру, США, по территории которых два раза в год проходят разрушительные торнадо. Они сметают на своем пути города, поднимают в воздух автомобили и автобусы, выводят реки из берегов, заливая тем самым гигантские территории. Борьба с торнадо - существенная часть американского бюджета. Только штат Флорида, который находится недалеко от тех мест, где эти смерчи рождаются, за последние годы потратил более 50 миллиардов долларов на экстренные меры по спасению людей. Правительство не жалеет денег на внедрение технологий, которые позволили бы предсказывать появление торнадо и определять, куда он направится.

Как рассчитать торнадо? Очевидно, что для этого надо решить задачу о локальном изменении погоды, то есть задачу о движении масс воздуха и распределении тепла в неком регионе. Принципиально это несложно, однако на практике возникают две проблемы. Проблема первая: чтобы заметить появление смерча, надо проводить расчет на характерных для его образования размерах, то есть на расстояниях порядка двух километров. Вторая трудность связана с правильным заданием начальных и граничных условий. Дело в том, что температура на границах интересующего вас региона зависит от того, что делается в соседних регионах. Рассуждая дальше, легко убедиться, что мы не можем решить задачу о смерче, не имея данных о климате на всей Земле. Климат на планете рассчитать можно, что и делается каждый день во всех странах для составления среднесрочных прогнозов погоды. Однако имеющиеся ресурсы позволяют вести расчеты лишь с очень большим шагом - десятки и сотни километров. Ясно, что к предсказанию смерчей такой прогноз не имеет никакого отношения.

Необходимо совместить две, казалось бы, плохо совместимые задачи: глобальный расчет, где шаг очень большой, и локальный, где шаг очень маленький. Сделать это можно, но лишь собрав в кулаке действительно фантастические вычислительные ресурсы. Дополнительная трудность состоит еще и в том, что вычисления не должны продолжаться более 4 часов, так как за 5 часов картина погоды смазывается совершенно, и все, что вы считаете, уже не имеет никакого отношения к реальности. Нужно не только обработать гигантский объем данных, но и сделать это достаточно быстро. Такое под силу лишь суперкомпьютерам.

Предсказание погоды - далеко не единственный пример использования суперкомпьютеров. Сегодня без них не обойтись в сейсморазведке, нефте- и газодобывающей промышленности, автомобилестроении, проектировании электронных устройств, фармакологии, синтезе новых материалов и многих других отраслях.

Так, по данным компании Ford, для выполнения crash-тестов, при которых реальные автомобили разбиваются о бетонную стену с одновременным замером необходимых параметров, со съемкой и последующей обработкой результатов, ей понадобилось бы от 10 до 150 прототипов для каждой новой модели. При этом общие затраты составили бы от 4 до 60 миллионов долларов. Использование суперкомпьютеров позволило сократить число прототипов на одну треть.

Известной фирме DuPont суперкомпьютеры помогли синтезировать материал, заменяющий хлорофлюорокарбон. Нужно было найти материал, имеющий те же положительные качества: невоспламеняемость, стойкость к коррозии и низкую токсичность, но без вредного воздействия на озоновый слой Земли. За одну неделю были проведены необходимые расчеты на суперкомпьютере с общими затратами около 5 тысяч долларов. По оценкам специалистов DuPont, использование традиционных экспериментальных методов исследований потребовало бы 50 тысяч долларов и около трех месяцев работы - и это без учета времени, необходимого на синтез и очистку требуемого количества вещества.

Почему суперкомпьютеры считают так быстро?
Итак, мы видим, что без суперкомпьютеров сегодня действительно не обойтись. Осталось прояснить еще один вопрос: почему они считают так быстро? Это может быть связано, во-первых, с развитием элементной базы и, во-вторых, с использованием новых решений в архитектуре компьютеров.

Попробуем разобраться, какой из этих факторов оказывается решающим для достижения рекордной производительности. Обратимся к известным историческим фактам. На одном из первых компьютеров мира EDSAC, появившемся в 1949 году в Кембридже и имевшем время такта 2 микросекунды (2·10-6 секунды), можно было выполнить 2n арифметических операций за 18n миллисекунд, то есть в среднем 100 арифметических операций в секунду. Сравним с одним вычислительным узлом современного суперкомпьютера Hewlett-Packard V2600: время такта приблизительно 1,8 наносекунды (1,8·10-9 секунды), а пиковая производительность - около 77 миллиардов арифметических операций в секунду.

Что же получается? За полвека производительность компьютеров выросла более чем в семьсот миллионов раз. При этом выигрыш в быстродействии, связанный с уменьшением времени такта с 2 микросекунд до 1,8 наносекунды, составляет лишь около 1000 раз. Откуда же взялось остальное? Ответ очевиден - за счет использования новых решений в архитектуре компьютеров. Основное место среди них занимает принцип параллельной обработки данных, воплощающий идею одновременного (параллельного) выполнения нескольких действий.

Различают два способа параллельной обработки: собственно параллельную и конвейерную. Оба способа интуитивно абсолютно понятны, поэтому сделаем лишь небольшие пояснения.

Параллельная обработка
Предположим для простоты, что некое устройство выполняет одну операцию за один такт. В этом случае тысячу операций такое устройство выполнит за тысячу тактов. Если имеется пять таких же независимых устройств, способных работать одновременно, то ту же тысячу операций система из пяти устройств может выполнить уже не за тысячу, а за двести тактов. Аналогично система из N устройств ту же работу выполнит за 1000/N тактов. Подобные примеры можно найти и в жизни: если один солдат выкопает траншею за 10 часов, то рота солдат из пятидесяти человек с такими же способностями, работая одновременно, справится с той же работой за 12 минут- принцип параллельности в действии!

Кстати, пионером в параллельной обработке потоков данных был академик А. А. Самарский, выполнявший в начале 50-х годов расчеты, необходимые для моделирования ядерных взрывов. Самарский решил эту задачу методом сеток, посадив несколько десятков барышень с арифмометрами за столы (узлы сетки). Барышни передавали данные одна другой просто на словах и откладывали необходимые цифры на арифмометрах. Таким образом, в частности, была рассчитана эволюция взрывной волны. Работы было много, барышни уставали, а Александр Андреевич ходил между ними и подбадривал. Так создали, можно сказать, первую параллельную систему. Хотя расчеты водородной бомбы провели мастерски, точность их оказалась очень низкой, потому что узлов в используемой сетке было мало, а время счета получалось слишком большим.

Конвейерная обработка
Что необходимо для сложения двух вещественных чисел, представленных в форме с плавающей запятой? Целое множество мелких операций, таких, как сравнение порядков, выравнивание порядков, сложение мантисс, нормализация и т.п. Процессоры первых компьютеров выполняли все эти "микрооперации" для каждой пары слагаемых последовательно, одну за другой, до тех пор, пока не доходили до окончательного результата, и лишь после этого переходили к обработке следующей пары слагаемых.

Идея конвейерной обработки заключается в расчленении операции на отдельные этапы, или, как это принято называть, ступени конвейера. Каждая ступень, выполнив свою работу, передает результат следующей ступени, одновременно принимая новую порцию входных данных. Получается очевидный выигрыш в скорости обработки. В самом деле, предположим, что в операции сложения можно выделить пять микроопераций, каждая из которых выполняется за один такт работы компьютера. Если есть одно неделимое последовательное устройство сложения, то 100 пар аргументов оно обработает за 500 тактов. Если теперь каждую микрооперацию преобразовать в отдельную ступень конвейерного устройства, то на пятом такте на разной стадии обработки будут находиться первые пять пар аргументов, и далее конвейерное устройство будет выдавать результат очередного сложения каждый такт. Очевидно, что весь набор из ста пар слагаемых будет обработан за 104 единицы времени - ускорение по сравнению с последовательным устройством почти в пять раз (по числу ступеней конвейера).

Идеи параллельной обработки появились очень давно. Изначально они внедрялись в самых передовых, а потому единичных компьютерах своего времени. Затем после должной отработки технологии и удешевления производства они спускались в компьютеры среднего класса, и наконец сегодня все это в полном объеме воплощается в рабочих станциях и персональных компьютерах. Все современные микропроцессоры, будь то Pentium III или РА-8600, Е2К или Power2 SuperChip, используют тот или иной вид параллельной обработки.

Для того чтобы лишний раз убедиться, что все новое - это хорошо забытое старое, достаточно лишь нескольких примеров. Уже в 1961 году создается компьютер IBM STRETCH, имеющий две принципиально важные особенности: опережающий просмотр вперед для выборки команд (при котором одновременно с текущей считываются команды, выполняемые позднее) и расслоение памяти на два банка - реализация параллелизма при работе с памятью. В 1963 году в Манчестерском университете разработан компьютер ATLAS, использующий конвейерный принцип выполнения команд. Выполнение команд разбито на четыре стадии: выборка команды, вычисление адреса операнда, выборка операнда и выполнение операции. Это позволило уменьшить время выполнения команд в среднем с 6 до 1,6 микросекунды. В1969 году Control Data Corporation выпускает компьютер CDC-7600 с восемью независимыми конвейерными функциональными устройствами.

Современные суперкомпьютеры
А что же сейчас используют в мире? По каким направлениям идет развитие высокопроизводительной вычислительной техники? Таких направлений четыре.

Векторно-конвейерные компьютеры

Две главные особенности таких машин: наличие конвейерных функциональных устройств и набора векторных команд. В отличие от обычных команд векторные оперируют целыми массивами независимых данных, то есть команда вида А=В+С может означать сложение двух массивов, а не двух чисел. Характерный представитель данного направления - семейство векторно-конвейерных компьютеров CRAY, куда входят, например, CRAY EL, CRAY J90, CRAY T90 (в марте этого года американская компания TERA перекупила подразделение CRAY у компании Silicon Graphics, Inc.).

Массивно-параллельные компьютеры с распределенной памятью
Идея построения компьютеров этого класса тривиальна: серийные микропроцессоры соединяются с помощью сетевого оборудования - вот и все. Достоинств у такой архитектуры масса: если нужна высокая производительность, то можно добавить процессоры, а если ограничены финансы или заранее известна требуемая вычислительная мощность, то легко подобрать оптимальную конфигурацию. К этому же классу можно отнести и простые сети компьютеров, которые сегодня все чаще рассматриваются как дешевая альтернатива крайне дорогим суперкомпьютерам. (Правда, написать эффективную параллельную программу для таких сетей довольно сложно, а в некоторых случаях просто невозможно). К массивно-параллельным можно отнести компьютеры Intel Paragon, ASCI RED, IBM SP1, Parsytec, в какой-то степени IBM SP2 и CRAY T3D/T3E.

Параллельные компьютеры с общей памятью

Вся оперативная память в таких компьютерах разделяется несколькими одинаковыми процессорами, обращающимися к общей дисковой памяти. Проблем с обменом данными между процессорами и синхронизацией их работы практически не возникает. Вместе с тем главный недостаток такой архитектуры состоит в том, что по чисто техническим причинам число процессоров, имеющих доступ к общей памяти, нельзя сделать большим. В данное направление суперкомпьютеров входят многие современные SMP-компьютеры (Symmetric Multi Processing), например сервер НР9000 N-class или Sun Ultra Enterprise 5000.

Кластерные компьютеры
Этот класс суперкомпьютеров, строго говоря, нельзя назвать самостоятельным, скорее, он представляет собой комбинации предыдущих трех. Из нескольких процессоров, традиционных или векторно-конвейерных, и общей для них памяти формируется вычислительный узел. Если мощности одного узла недостаточно, создается кластер из нескольких узлов, объединенных высокоскоростными каналами. По такому принципу построены CRAY SV1, HP Exemplar, Sun StarFire, NEC SX-5, последние модели IBM SP2 и другие. В настоящее время именно это направление считается наиболее перспективным.

Два раза в год составляется список пятисот самых мощных вычислительных установок мира (его можно посмотреть в Интернете по адресу http://parallel.ru/top500.html). Согласно последней редакции списка top500, вышедшей в ноябре прошлого года, первое место занимает массивно-параллельный компьютер Intel ASCI Red. На второй позиции стоит компьютер ASCI Blue-Pacific от IBM, объединяющий 5808 процессоров PowerPC 604e/332MHz. Оба эти суперкомпьютера созданы в рамках американской национальной программы Advanced Strategic Computing Initiative, аббревиатура которой и присутствует в названии. Производительность компьютера, стоящего на последнем, 500-м, месте в списке самых мощных, составляет 33,4 миллиарда операций в секунду.

Если мощность существующих компьютеров поражает, то что говорить о планах. В декабре 1999 года корпорация IBM сообщила о новом исследовательском проекте общей стоимостью около 100 миллионов долларов, цель которого - построение суперкомпьютера, в 500 раз превосходящего по производительности самые мощные компьютеры сегодняшнего дня. Компьютер, имеющий условное название Blue Gene, будет иметь производительность порядка 1 PETAFLOPS (1015 операций в секунду) и использоваться для изучения свойств белковых молекул. Предполагается, что каждый отдельный процессор Blue Gene будет иметь производительность порядка 1 GFLOPS (109 операций в секунду). 32 подобных процессора будут помещены на одну микросхему. Компактная плата размером 2x2 фута будет вмещать 64 микросхемы, что по производительности не уступает упоминавшимся ранее суперкомпьютерам ASCI, занимающим площадь 8000 квадратных метров. Более того, 8 таких плат будут помещены в 6-футовую стойку, а вся система будет состоять из 64 стоек с суммарной производительностью 1 PFLOPS. Фантастика!

Вычислительный кластер Московского государственного университета им. М. В. Ломоносова - минимальная стоимость, суперкомпьютерная производительность. В настоящий момент это самая мощная вычислительная система, установленная в вузе России.

Суперкомпьютеры в России

Идеи построения собственных суперкомпьютерных систем существовали в России всегда. Еще в 1966 году М.А.Карцев выдвинул идею создания многомашинного вычислительного комплекса М-9 производительностью около миллиарда операций в секунду. В то время ни одна из машин мира не работала с такой скоростью. Однако, несмотря на положительную оценку министерства, комплекс М-9 промышленного освоения не получил.

Работы по созданию суперкомпьютерных систем и суперкомпьютерных центров ведутся в России и сейчас. Наиболее известна линия отечественных суперкомпьютеров МВС-1000, создаваемая в кооперации научно-исследовательских институтов Российской академии наук и промышленности. Супер-ЭВМ линии МВС-1000 - это мультипроцессорный массив, объединенный с внешней дисковой памятью, устройствами ввода/вывода информации и управляющим компьютером. Компьютеры МВС-1000 используют микропроцессоры Alpha 21164 (разработка фирмы DEC-Compaq) с производительностью до 1-2 миллиардов операций в секунду и оперативной памятью объемом 0,1-2 Гбайта.

Спектр научных и практических задач, решаемых на таком компьютере, может быть очень велик: расчет трехмерных нестационарных течений вязкосжимаемого газа, расчеты течений с локальными тепловыми неоднородностями в потоке, моделирование структурообразования и динамики молекулярных и биомолекулярных систем, решение задач линейных дифференциальных игр, расчет деформаций твердых тел с учетом процессов разрушения и многие другие. Одна из самых мощных систем линии МВС-1000, установленная в Межведомственном суперкомпьютерном центре, содержит 96 процессоров.

В последнее время в России, также как и во всем мире, активно используется кластерный подход к построению суперкомпьютеров. Покупаются стандартные компьютеры и рабочие станции, которые с помощью стандартных сетевых средств объединяются в параллельную вычислительную систему. По такому пути пошел, и, надо сказать, успешно, Научно-исследовательский вычислительный центр Московского государственного университета им. М.В.Ломоносова, создавший кластер из 12 двухпроцессорных серверов "Эксимер" на базе Intel Pentium III/500MHz (в сумме 24 процессора, более 3 Гбайт оперативной памяти, 66 Гбайт дисковой памяти). Сегодня это крупнейшая вычислительная установка в вузе России, предназначенная для поддержки фундаментальных научных исследований и образования. При минимальной стоимости вычислительный кластер НИВЦ МГУ показывает производительность 5,7 миллиарда операций в секунду при решении системы линейных алгебраических уравнений с плотной матрицей размером 16000x16000! В будущем планируется значительно увеличить мощность кластера как за счет добавления новых процессоров, так и за счет модернизации вычислительных узлов.

Вместо заключения
К сожалению, чудеса в нашей жизни случаются редко. Гигантская производительность параллельных компьютеров и супер-ЭВМ с лихвой компенсируется сложностью их использования. Да что там использование, иногда даже вопросы, возникающие вокруг суперкомпьютеров, ставят в тупик. Как вы думаете, верно ли утверждение: чем мощнее компьютер, тем быстрее на нем можно решить данную задачу? Ну, конечно же, нет... Простой бытовой пример. Если один землекоп выкопает яму за 1 час, то два землекопа справятся с задачей за 30 мин - в это еще можно поверить. А за сколько времени эту работу сделают 60 землекопов? Неужели за 1 минуту? Конечно же, нет! Начиная с некоторого момента они будут просто мешать друг другу, не ускоряя, а замедляя процесс. Так же и в компьютерах: если задача слишком мала, то мы будем дольше заниматься распределением работы, синхронизацией процессов, сборкой результатов и т. п., чем непосредственно полезной деятельностью.

Но все вопросы, сопровождающие суперкомпьютер, конечно же, решаются. Да, использовать суперкомпьютеры сложнее, чем персоналку: нужны дополнительные знания и технологии, высококвалифицированные специалисты, более сложная информационная инфраструктура. Написать эффективную параллельную программу намного сложнее, чем последовательную, да и вообще создание программного обеспечения для параллельных компьютеров - это центральная проблема суперкомпьютерных вычислений. Но без супер-ЭВМ сегодня не обойтись, и отрадно, что в нашей стране есть понимание необходимости развития этих технологий. Так, в ноябре прошлого года в Президиуме Российской академии наук состоялось открытие межведомственного суперкомпьютерного центра. В процессе становления суперкомпьютерные центры в Дубне, Черноголовке, Институте прикладной математики РАН им. М. В. Келдыша, Институте математического моделирования РАН, Московском государственном университете им. М. В. Ломоносова. Создана и развивается линия отечественных суперкомпьютеров МВС-1000. Активно разворачивает свою деятельность Информационно-аналитический центр по параллельным вычислениям в сети Интернет WWW.PARALLEL.RU, осуществляющий информационную поддержку многих российских проектов. А иначе и нельзя. Параллельные вычисления и параллельные компьютеры - это реальность, и это уже навсегда.
Доктор физико-математических наук В. Воеводин


Первый суперкомпьютер Atlas появился в начале 60-х годов и был установлен в Манчестерском университете. Он был в разы менее мощный, чем современные домашние компьютеры. В нашем обзоре собрана «десятка» самых мощных в истории суперкомпьютеров. Правда в связи с быстро развивающимися в этой сфере технологиями устаревают эти мощные машины в среднем за 5 лет..

Производительность современных суперкомпьютеров измеряется в петафлопсах - единице измерения, показывающей, сколько операций с плавающей запятой в секунду выполняет компьютер. Сегодня речь пойдет о десяти самых дорогих современных суперкомпьютерах.

1. IBM Roadrunner (США)


$ 130 млн
Roadrunner был построен IBM в 2008 году для Национальной лаборатории в Лос-Аламосе (Нью-Мексико, США). Он стал первым в мире компьютером, чья средняя рабочая производительность превысила 1 петафлопс. При этом он был рассчитан на максимальную производительность в 1,7 петафлопса. Согласно списка Supermicro Green500, в 2008 году Roadrunner был четвертым по энергоэффективности суперкомпьютером в мире. Списан Roadrunner был 31 марта 2013 года, после чего его заменили меньшим по размерам и более энергоэффективным суперкомпьютером под названием Cielo.

2. Vulcan BlueGene/Q (США)


$ 100 млн
Vulcan – суперкомпьютер, состоящий из 24 отдельных блоков-стоек, который был создан IBM для Министерства энергетики и установлен в Национальной лаборатории Лоуренса Ливермора, штат Калифорния. Он имеет пиковую производительность в 5 петафлопсов и в настоящее время является девятым по скорости суперкомпьютером в мире. Vulcan вступил в строй в 2013 году и сейчас используется Ливерморской национальной лабораторией для исследований в области биологии, физики плазмы, климатических именений, молекулярных систем и т. д.

3. SuperMUC (Германия)

$ 111 млн
SuperMUC в настоящее время является 14-м по скорости суперкомпьютером в мире. В 2013 году он был 10-м, но развитие технологий не стоит на месте. Тем не менее, он в данный момент является вторым по скорости суперкомпьютером в Германии. SuperMUC находится в ведении Лейбницкого суперкомпьютерного центра при Баварской академии наук рядом с Мюнхеном.

Система была создана IBM, работает на оболочке Linux, содержит более 19000 процессоров Intel и Westmere-EX, а также имеет пиковую производительность чуть более 3 петафлопсов. SuperMUC используется европейскими исследователями в областях медицины, астрофизики, квантовой хромодинамики, вычислительной гидродинамики, вычислительной химии, анализа генома и моделирования землетрясений.

4. Trinity (США)

$ 174 млн
Можно было бы ожидать, что подобный суперкомпьютер (учитывая то, для чего он строится) должен быть безумно дорогим, но благодаря развитию технологий стало возможным удешевление цены Trinity. Правительство США собирается использовать Trinity для того, чтобы поддерживать эффективность и безопасность ядерного арсенала Америки.

Trinity, который строится в настоящее время, станет совместным проектом Сандийской национальной лаборатории и Лос-Аламосской национальной лаборатории в рамках программы Прогнозного моделирования и вычислительной обработки данных Национальной администрации по ядерной безопасности.

5. Sequoia BlueGene/Q (США)


$ 250 млн
Суперкомпьютер Sequoia класса BlueGene/Q был разработан IBM для Национальной администрации по ядерной безопасности, в рамках программы Прогнозного моделирования и вычислительной обработки данных. Он был запущен в эксплуатацию в июне 2012 года в Ливерморской национальной лаборатории и стал на тот момент самым быстрым суперкомпьютером в мире. Сейчас он занимает третье место в мире по скорости (теоретический пик производительности Sequoia - 20 петафлопсов или 20 триллионов вычислений в секунду).

Стабильно компьютер работает при 10 петафлопсах. Используется Sequoia для поддержки различных научных приложений, изучения астрономии, энергетики, человеческого генома, изменения климата и разработки ядерного оружия.

6. ASC Purple и BlueGene / L (США)


$ 290 млн
Эти два суперкомпьютера работали вместе. Они были построены IBM и установлены в 2005 году в Ливерморской национальной лаборатории. Из эксплуатации они были выведены в 2010 году. На момент создания ASC Purple занимал 66-е место по скорости в списке топ-500 суперкомпьютеров, а BlueGene / L был предыдущим поколением модели BlueGene / Q.

ASCI Purple был построен для пятого этапа программы Прогнозного моделирования и вычислительной обработки данных Министерства энергетики США, а также Национальной администрации по ядерной безопасности. Его целью являлась симуляция и замена реальных испытаний оружия массового уничтожения. BlueGene/L использовали для прогнозирования глобального изменения климата.

7. Sierra и Summit (США)


$ 325 млн
Nvidia и IBM скоро помогут Америке вернуть лидирующие позиции в области сверхскоростных суперкомпьютерных технологий, научных исследований, а также экономической и национальной безопасности. Оба компьютера будут закончены в 2017 году.

В настоящее время самым быстрым суперкомпьютером в мире является китайский Tianhe-2, который способен достигнуть мощности в 55 петафлопсов, что в два раза больше, чем устройство, находящееся на втором месте в списке. Sierra будет выдавать более чем 100 петафлопсов, в то время как Summit сможет развить 300 петафлопсов.

Sierra, которая будет установлена в Ливерморской национальной лаборатории, будет обеспечивать безопасность и эффективность ядерной программы страны. Summit заменит устаревший суперкомпьютер Titan в национальной лаборатории Oak Ridge и будет предназначаться для тестирования и поддержки научных приложений по всему миру.

8. Tianhe-2 (Китай)

$ 390 млн
Китайский Tianhe-2 (что переводится как "Млечный путь-2") является самым быстрым суперкомпьютером в мире. Компьютер, разработанный командой из 1300 ученых и инженеров, находится в Национальном суперкомпьютерном центре в Гуанчжоу. Он был построен китайским Оборонным научно-техническим университетом Народно-освободительной армии Китая. Tianhe-2 способен выполнять 33 860 триллионов вычислений в секунду. К примеру, один час расчетов суперкомпьютера эквивалентен 1000 годам работы 1,3 миллиарда человек. Используется машина для моделирования и анализа правительственных систем безопасности.

9. Earth Simulator (Япония)


$ 500 млн
"Симулятор Земли" был разработан японским правительством еще в 1997 году. Стоимость проекта составляет 60 млрд иен или примерно $ 500 млн. Earth Simulator был завершен в 2002 году для агентства аэрокосмических исследований Японии, Японского научно-исследовательского института по атомной энергии и Японского центра морских и наземных исследований и технологий.

ES был самым быстрым суперкомпьютером в мире с 2002 по 2004 годы, а служит он и поныне для работы с глобальными климатическими моделями, для оценки последствий глобального потепления и оценки проблем геофизики коры Земли.

10. Fujitsu K (Япония)

$ 1,2 млрд
Самый дорогой в мире суперкомпьютер всего лишь четвертый по скорости в мире (11 петафлопсов). В 2011 году он был самым быстрым суперкомпьютером в мире. Fujitsu K, расположенный в Институте передовых вычислительных технологий RIKEN, примерно в 60 раз быстрее, чем Earth Simulator. На его обслуживание уходит порядка $ 10 млн в год, а использует суперкомпьютер 9,89 МВт (сколько электроэнергии используют 10 000 загородных домов или один миллион персональных компьютеров).

Стоит отметить, что современные учёные шагнули так далеко, что уже появились .



До Марса человечество так и не долетело, лекарство от всех болезней еще не изобретено, автомобили не летают, но, тем не менее, существуют области, в которых люди достигли небывалых высот. Вычислительная мощность компьютеров – одна из таких. Для начала разберемся, что же является ключевым параметром при оценке этой характеристики суперкомпьютеров. Флопс – величина, показывающая число операций с плавающей запятой, которое ЭВМ может выполнить за секунду. На основании этого показателя и был составлен наш рейтинг самых мощных компьютеров в мире, по данным 2019 года.

Рейтинг был представлен на конференции International Supercomputing Conference, топ-500 суперкомпьютеров был составлен учеными-математиками Национальной лаборатории имени Лоуренса и Университета штата Теннесси.

10 Trinity – производительность 8,1 Пфлоп/сек

Этот суперкомпьютер стоит «на страже» военной безопасности США, поддерживая эффективность национального ядерного арсенала. Учитывая это, можно подумать, что стоит этот аппарат невероятно дорого, однако, начиная с 2015 года, его начали вытеснять новые более мощные суперкомпьютеры. Trinity работает на базе системы Cray XC40, производительность его составляет 8,1 Пфлоп/сек.

9 Mira – 8,6 Пфлоп/сек

Mira – еще один гениальный продукт компании Cray. Стоит отметить, что проект этого суперкомпьютера был разработан по заказу Министерства энергетики Соединенных Штатов. Главная область применения Mira – государственные промышленные и научно-исследовательские проекты. Вычислительная мощность этого компьютера составляет 8,6 петафлопс в секунду.

8 K Computer – 10,5 Пфлоп/сек

Особенность этого суперкомпьютера кроется в его названии, которое происходит от японского слова «кэй» и означает 10 квадриллионов. Примерно в эту цифру упирается производительная мощность K Computer – 10,5 петафлопс. Специфика этой техники заключается также в том, что система использует водяное охлаждение, что позволяет значительно снизить потребление энергии и снизить скорость компоновки.

7 Oakforest-Pacs – 13,6 Пфлоп/сек

Японская компания Fujitsu, которая также занималась разработкой K Computer, о котором упоминалось ранее, создала суперкомпьютер нового поколения (поколения Knights Landing). Проект был выполнен по заказу Токийского и Цукубского университетов. Несмотря на то, что изначально планировалось оснастить компьютер памятью в 900 Тбайт и производительностью в 25 квадриллионов операций, вычислительная мощность его составляет 13,6 петафлопс/c.

6 Cori – 14 Пфлоп/сек

До 2019 года Cori занимал твердую 5 позицию в мировом рейтинге самых мощных компьютеров, но в условиях быстро развивающегося технического прогресса он все же уступил одну рейтинговую «строчку» новейшим суперкомпьютерам. Находится он в Национальной лаборатории имени Лоуренса и Беркли, в США. Cori уже внес свой неповторимый вклад в развитие науки: с его помощью швейцарские ученые сумели смоделировать 45-кубитную квантовую вычислительную систему. 14 петафлопс – производительная мощность этой «супермашины».

5 Sequoia – 17,2 Петафлопс

Многие эксперты называют Sequoia самым быстрым суперкомпьютером в мире, и неспроста: арифметическая производительность его равна скорости работы 6,7 млрд. человек, которые в течение 320 лет выполняли бы идентичное задание при помощи калькуляторов. Отличается Sequoia и своими размерами: компьютер занимает площадь в 390 квадратных метров и состоит из 96 стоек. 17,2 петафлопс – его производительность, что равняется практически шестнадцати тысячам триллионов операций.

4 Titan – 17,6 Пфлоп/сек

Помимо того, что Titan входит в топ самых быстрых компьютеров в мире, он также считается одним из самых энергоэффективных, имея показатель 2142,77 мегафлопс на Ватт потребляемой энергии. Секрет экономии электроэнергии состоит в использовании ускорителей Nvidia, обеспечивающих до 90% всей вычислительной мощности, которая, к слову, составляет 17,6 петафлопс. Благодаря им же Titan заметно уменьшил свои габариты – сейчас для размещения ему достаточно всего 404 квадратных метра.

3 Piz Daint – 19,6 Петафлопс

Проект суперкомпьютера Piz Daint был запущен еще в 2013 году, в швейцарском городе Лугано. Располагается он там же – в Швейцарском национальном центре суперкомпьютеров. Piz Daint собрал почти все положительные характеристики вышеперечисленных аналогов, включая энергоэффективность и высокую скорость, кроме компактности: аппарат состоит из 28 крупногабаритных стоек. Его вычислительная мощь составляет 19,6 петафлопс.

2 Tianhe-2 – 33,9 Петафлопс

Суперкомпьютер с романтическим названием «Млечный путь» (в переводе с китайского) до июня 2016 года возглавлял топ-500 самых мощных компьютеров мира. Мощность его обеспечивает скорость 2507 триллионов операций в секунду, что равняется 33,9 петафлопс. Тяньхэ-2 нашел свое «призвание» в области строительства: при расчетах застроек и прокладки дорог. Стоит отметить, что с начала 2013 года, как только «Млечный путь» был выпущен, он не оставлял ведущую позицию рейтингов, что является по-настоящему мощным показателем.

1 Sunway TaihuLight – 93 Петафлопс

Внутри этого компьютера находятся 40 960 производительных процессоров, чем и объясняется его габаритность: сам Sunway занимает площадь около 1000 квадратных метров. В 2016 году на международной конференции в Германии он был признан самым быстрым в своем роде. На сегодняшний день Sunway TaihuLight является первым в рейтинге и единственным в топ-10 суперкомпьютеров, способным вырабатывать скорость в 93 петафлопс.




Если рассматривать технический прогресс в разрезе его влияния на человека, общество в целом и окружающую среду, очевидно, что он имеет глобальные недостатки. Сегодня нам доступно великое множество компьютеров, различных приборов и роботов. Но высшей целью является найти достойное применение великим изобретениям человечества и направить их использование во благо нашего общего будущего, не превращая их в бессмысленные игрушки.

Пятый раз подряд китайский Tianhe-2 (Млечный путь 2) становиться самым быстрым суперкомпьютером в мире с производительностью 33.86 петафлопс или квадриллион операций с плавающей запятой в секунду. Таков вердикт списка самых мощных суперкомпьютеров TOP500, который выпускается дважды в год.

Несмотря на ожидаемый результат, в последнем издании все же есть немного интересной информации. Соединенные Штаты по-прежнему имеют больше систем в списке, чем любая другая страна - 233 машины (для сравнения полгода назад было 231, а год назад 265). Второе и третье места занимают системы из США, в то время как 141 машина из списка, размещена в Европе. Примечательно, что три новых компьютера принадлежат китайской компании Lenovo, хотя сам Китай представлен всего 37 суперкомпьютерами, по сравнению с 61 в прошлом году.
Средняя производительность TOP500 значительно выросла за последние 6 месяцев. Суммарная мощность всех 500 суперкомпьютеров составила 363 петафлопс/c, что заметно больше, чем 309 в прошлом ноябре и 274 год назад. 98% систем используют процессоры с шестью ядрами и более, в то время как, по крайней мере, 88,2%, имеют 8 ядер на процессор. Восемьдесят восемь из пятисот систем использовали ускорители / сопроцессоры, среди которых Nvidia (52), ATI Radeon (4), и Intel Xeon Phi (33). Четыре системы используют комбинацию процессоров Xeon и Nvidia.
Топ-10 состоит из машин, запущенных в 2011 и 2012 году, за исключением нового участника из Саудовской Аравии под номером 7. Вот как выглядят список 10 наиболее мощных суперкомпьютеров мира.

  1. Tianhe-2: Кластер TH-IVB-FEP; Национальный суперкомпьютерный центр в Гуанчжоу, Китай; 3.12 миллиона ядер (33.86 Пфлопс/с).
  2. Titan: Система Cray XK7, Национальная лаборатория Оук-Ридж, США. 560 640 ядер (17.59 Пфлопс/с).
  3. Sequoia: Система IBM BlueGene/Q, Ливерморская национальная Лаборатория 1.57 миллиона ядер, (17.2 Пфлопс/с).
  4. K Computer: Система SPARC64 с 705 024 ядрами в RIKEN Институт передовой вычислительной науки в Институте физико-химических исследований (RIKEN), Япония. (10.5 Пфлопс/с).
  5. Mira: IBM BlueGene/Q; DOE/SC/ Аргоннская национальная лаборатория, США; 786 000 ядер IBM. (8.59 Пфлопс/с).
  6. Piz Daint: Cray XC30 с 116 000 ядер от Xeon и Nvidia; located at the Швейцарский национальный вычислительный центр. (6.27 Пфлопс/с).
  7. Shaheen II: Система Cray XC40. Университет науки и технологий Короля Абдуллы в Саудовской Аравии. (5.536 Пфлопс/с).
  8. Stampede: Система Dell PowerEdge C8220 с 462 462 ядрами Xeon Phi в Университете Техаса (5.17 Пфлопс/с).
  9. JUQUEEN: BlueGene/Q, 458 752 ядра IBM. Юлихский исследовательский центр, Германия. (5 Пфлопс/с).
  10. Vulcan: BlueGene/Q, 393 216 ядер IBM, Департамент Энергетики США.

Нужно помнить, что расклады могут резко измениться, если кто-то создаст настоящий квантовый компьютер. IBM пошли на рекорд, собираясь создать компьютер на 50 кубитов (с текущим максимумом в 4), который может стать мощнее, чем любая система в этом списке.
Тем временем Департамент Энергетики США заказал две системы IBM/Nvidia в сделке на $ 425 млн. Поставка машин запланирована на 2017 и 2018 год, а пиковая мощность может составить 150 петафлопс.

Ранее занимавший первое место суперкомпьютер K Computer отодвинут на третье место. Его производительность составляет 11,28 Пфлопс (см. Рисунок 1). Напомним, что флопс (FLoating-point Operations Per Second, FLOPS) - это единица измерения производительности компьютеров, которая показывает, сколько операций с плавающей запятой в секунду способна выполнить данная вычислительная система.

K Computer является совместной разработкой Института физико-химических исследований Рикагаку Кенкийо (RIKEN) и Fujitsu. Он создавался в рамках инициативы High-Performance Computing Infrastructure (Инфраструктура высокопроизводительных компьютерных вычислений), возглавляемой японским министерством образования, культуры, спорта, науки и технологий (MEXT). Суперкомпьютер установлен на территории Института передовых вычислительных наук в японском городе Кобе.

В основу суперкомпьютера положена архитектура распределенной памяти. Система состоит из более чем 80 000 вычислительных узлов и размещается в 864 стойках, каждая из которых вмещает 96 вычислительных узлов и 6 узлов ввода/вывода. Узлы, содержащие по одному процессору и по 16 Гбайт оперативной памяти, соединяются между собой в соответствии с топологией «шестимерная петля / тор». В общей сложности в системе используется 88 128 восьмиядерных процессоров SPARC64 VIIIfx (705 024 ядра), произведенных Fujitsu по технологии 45 нм.

Этот суперкомпьютер общего назначения обеспечивает высокий уровень производительности и поддержку широкого ряда приложений. Система используется для проведения исследований в области климатических изменений, предотвращения стихийных бедствий и медицины.

Уникальная система водяного охлаждения позволяет снизить вероятность отказа оборудования и сократить общее энергопотребление. Экономия энергии достигается за счет применения высокоэффективного оборудования, системы когенерации тепло- и электроэнергии и массива солнечных батарей. Кроме того, механизм повторного использования отработанной воды из охладителя позволяет снизить негативное влияние на окружающую среду.

Здание, в котором расположен K Computer, является сейсмоустойчивым и способно выдерживать землетрясения магнитудой 6 и более баллов по японской шкале (0–7). Для более эффективного размещения стоек с оборудованием и кабелей третий этаж размером 50 × 60 м полностью освобожден от несущих колонн. Современные технологии строительства позволили обеспечить допустимый уровень нагрузки (до 1 т/м 2) для установки стоек, вес которых может достигать 1,5 т.

СУПЕРКОМПЬЮТЕР SEQUOIA

Суперкомпьютер Sequoia, установленный в Ливерморской национальной лаборатории им. Лоуренса, обладает производительностью 16,32 Пфлопс и занимает вторую строчку рейтинга (см. Рисунок 2).

Этот петафлопсный суперкомпьютер, разработанный компанией IBM на базе Blue Gene/Q, создан для Национальной администрации по ядерной безопасности США (NNSA) в рамках реализации программы Advanced Simulation and Computing (Высокотехнологичное моделирование и компьютерные вычисления).

Система состоит из 96 стоек и 98 304 вычислительных узлов (1024 узла на стойку). Каждый узел включает в себя 16-ядерный процессор PowerPC A2 и 16 Гбайт оперативной памяти DDR3. В целом используется 1 572 864 процессорных ядра и 1,6 Пбайт памяти. Узлы соединяются между собой в соответствии с топологией «пятимерный тор». Занимаемая системой площадь равна 280 м2. Общее энергопотребление составляет 7,9 МВт.

На суперкомпьютере Sequoia впервые в мире были проведены научные вычисления, для которых требовалась вычислительная мощность более 10 Пфлопс. Так, системе космологического моделирования HACC потребовалось около 14 Пфлопс при запуске в режиме 3,6 трлн частиц, а во время запуска кода проекта Cardiod для моделирования электрофизиологии человеческого сердца производительность достигла почти 12 Пфлопс.

СУПЕРКОМПЬЮТЕР TITAN

Самым быстрым в мире суперкомпьютером был признан суперкомпьютер Titan, установленный в Окриджской национальной лаборатории (ORNL) в США. В тестовых испытаниях Linpack его производительность составила 17,59 Пфлопс.

В Titan реализована гибридная архитектура CPU-GPU (см. Рисунок 3). Система состоит из 18 688 узлов, каждый из которых оснащен 16-ядерным процессором AMD Opteron и графическим ускорителем Nvidia Tesla K20X. В общей сложности используется 560 640 процессоров. Titan представляет собой обновление ранее эксплуатировавшегося в ORNL суперкомпьютера Jaguar и занимает те же серверные шкафы (общей площадью 404 м 2).

Возможность использования уже существующих систем питания и охлаждения позволила сэкономить в ходе строительства около 20 млн долларов. Энергопотребление суперкомпьютера составляет 8,2 МВт, что на 1,2 МВт больше показателей Jaguar, при этом его производительность при выполнении операций с плавающей точкой выше почти в 10 раз.

Titan в первую очередь будет использоваться для проведения исследований в области науки о материалах и ядерной энергетики, а также исследований, касающихся повышения эффективности работы двигателей внутреннего сгорания. Кроме того, с его помощью будут выполняться моделирование климатических изменений и анализ потенциальных стратегий по устранению связанных с ними негативных последствий.

САМЫЙ «ЗЕЛЕНЫЙ» СУПЕРКОМПЬЮТЕР

Помимо рейтинга Top500, нацеленного на определение наиболее высокопроизводительной системы, существует рейтинг Green500, где отмечены самые «зеленые» суперкомпьютеры. Здесь за основу принят показатель энергоэффективности (Мфлопс/Вт). На данный момент (последний выпуск рейтинга - ноябрь 2012 года) лидером Green500 является суперкомпьютер Beacon (253-е место в Top500). Показатель его энергоэффективности составляет 2499 Мфлопс/Вт.

Beacon работает на базе сопроцессоров Intel Xeon Phi 5110P и процессоров Intel Xeon E5-2670, поэтому пиковая производительность может достигать 112 200 Гфлопс при общем энергопотреблении в 44,9 кВт. Сопроцессоры Xeon Phi 5110P обеспечивают высокую производительность при низком энергопотреблении. Каждый сопроцессор обладает мощностью в 1 Тфлопс (при выполнении операций с двойной точностью) и поддерживает до 8 Гбайт памяти класса GDDR5 с пропускной способностью в 320 Гбит/с.

Пассивная система охлаждения Xeon Phi 5110P рассчитана на TDP 225 Вт, что является идеальным показателем для серверов высокой плотности.

СУПЕРКОМПЬЮТЕР EURORA

Однако в феврале 2013 года появились сообщения о том, что суперкомпьютер Eurora, расположенный в городе Болонья (Италия), по энергоэффективности превзошел Beacon (3150 Мфлопс/ватт против 2499 Мфлопс/Вт).

Eurora построен компанией Eurotech и состоит из 64 узлов, каждый из которых включает в себя два процессора Intel Xeon E5-2687W, два ускорителя Nvidia Tesla K20 GPU и другое оборудование. Габариты подобного узла не превышают габаритов ноутбука, однако их производительность выше в 30 раз, а энергопотребление ниже в 15 раз.

Высокая эффективность энергопотребления в Eurora достигнута путем использования нескольких технологий. Наибольший вклад вносит водяное охлаждение. Так, каждый узел суперкомпьютера представляет собой своеобразный бутерброд: центральное оборудование снизу, водяной теплообменник в середине и еще один блок электроники сверху (см. Рисунок 4).

Столь высокие результаты обеспечиваются благодаря применению материалов с хорошей теплопроводностью, а также разветвленной сетью охлаждающих каналов. При установке нового вычислительного модуля его каналы совмещаются с каналами системы охлаждения, что позволяет менять конфигурацию суперкомпьютера в зависимости от конкретных потребностей. По заверению производителей, риск протечек исключен.

Электропитание элементов суперкомпьютера Eurora осуществляется посредством 48-вольтовых источников постоянного тока, внедрение которых позволило сократить число преобразований энергии. Наконец, отводимая от вычислительного оборудования теплая вода может использоваться и в других целях.

ЗАКЛЮЧЕНИЕ

Отрасль суперкомпьютеров активно развивается и ставит все новые и новые рекорды производительности и энергоэффективности. Следует отметить, что именно в этой отрасли, как нигде более, сегодня широко применяются технологии жидкостного охлаждения и 3D-моделирования, так как перед специалистами стоит задача скомпоновать сверхмощную вычислительную систему, которая была бы способна функционировать в ограниченном объеме при минимальных потерях энергии.

Юрий Хомутский - главный инженер проектов компании «Ай-Теко». С ним можно связаться по адресу: [email protected] . В статье использованы материалы интернет-портала о центрах обработки данных «www.AboutDC.ru - Решения для ЦОД».



Есть вопросы?

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: