Сверхмашины: история развития суперкомпьютеров. История суперкомпьютеров


Сверхмашины: история развития суперкомпьютеров - ИА «Одесса-медиа»

Настоящие звезды компьютерного небосклона являются основными вычислительными средствами научных, промышленных и военных проектов.

Сверхмощные вычислительные машины и их разработчики всегда находятся в центре внимания, что неудивительно, ведь стоимость таких компьютерных систем измеряется миллионами, а их возможности по управлению огромными и сложнейшими массивами данных поражают воображение. Суперкомпьютеру под силу, например, просчитать модель изменения климата на грядущее десятилетие или смоделировать движение частиц автомобильного лака в воздушном потоке в течение нескольких дней, недель и даже месяцев. При этом стандартному ПК для выполнения таких задач не хватило бы и целой человеческой жизни. Суперкомпьютеры играют также видную роль в ядерных разработках — например, при расчете силы взрывной волны.

Младший брат умнее человека?11 мая 1997 года состоялся «матч века» по шахматам, вошедший в историю как поединок между машиной и человеком. В заключительной шестой партии чемпион мира Гарри Каспаров потерпел поражение от созданного IBM компьютера Deep Blue, что определило исход матча — 2,5:3,5 в пользу искусственного разума. Для того чтобы разгромить соперника, машине понадобилось всего 19 ходов.Deep Blue был специально разработан компанией IBM для игры в шахматы, много раз перепрограммировался и совершенствовался, но звание самой быстрой ЭВМ ему никогда не принадлежало. А по сравнению с конкурентами из TOP500 — официального рейтинга самых мощных компьютерных систем мира (top500.org) — он работал даже медленно. В июне 1997 года Deep Blue удалось занять лишь 259 место в этом списке, а сейчас, по прошествии 15 лет, его уже давно нет в заветном перечне.

Рождение сверхмощной машиныСчитается, что первый суперкомпьютер появился на свет в 1964 году, а его создателем принято называть американца Сеймура Крея, который претворял в жизнь поистине революционные для своего времени идеи — большинство из них стало применяться в массовом производстве ПК лишь спустя несколько десятилетий. Один из примеров тому — конвейерная обработка инструкций, которая позволяет компьютеру разделять выполнение команд на несколько этапов, называемых ступенями, вместо того чтобы выполнять их последовательно, одну за другой. При этом на различных ступенях конвейера выполняется несколько команд. Применяя этот принцип, Крей сконструировал для компании CDC (Control Data Corporation) первый коммерчески выгодный суперкомпьютер CDC 6600 с производительностью 3 млн операций с плавающей запятой в секунду (флопс).Флопс — сокращение от английского floating operations per second, в переводе на русский — «количество операций с плавающей запятой». Эта величина измеряется при помощи стандартного теста LINPACK. В 1964 году производительность CDC 6600 считалась рекордно высокой, по современным же меркам она ничтожно мала.

Гонка за рекордамиDeep Blue, созданный в 1997-м, мог похвастаться мощностью 11,38 млрд флопс, а ASCI Red, несколько лет возглавлявший список самых мощных компьютеров, уже одолел рубеж в один терафлопс — 1,068 триллиона операций в секунду. И хотя стандартный тест LINPACK измеряет производительность не процессора, а всей системы в целом, его результаты едва ли можно назвать бесспорными. Причина кроется в том, что вычислительные машины, построенные по определенному типу, получают преимущество в этом испытании, в то время как на некоторых компьютерах тест LINPACK выполнить и вовсе невозможно в силу особенностей их архитектуры. Тем не менее звание создателя самого быстрого в мире компьютера было и остается весьма престижным.Раньше в TOP500 бесспорными лидерами были США, но в 80-е годы XX века серьезную конкуренцию им составила Япония, а теперь и Китай готов побороться за первые места в заветном списке. Предыдущий обладатель титула «Номер один» также родом из Азии. K-computer, сконструированный компанией Fujitsu, установлен в японском городе Кобе. Он работает на базе операционной системы Linux и по-настоящему впечатляет оснащением: 705 024 ядра обеспечивают скорость вычислений в 10,51 петафлопс, что в четыре раза превышает производительность суперкомпьютера Tianhe-1A, лидировавшего в списке TOP500 в 2010 году.Впрочем, США удалось отвоевать лидерство: Sequoia 1A от фирмы IBM с рекордной производительностью 16,32 петафлопс по праву получил звание самого быстрого суперкомпьютера в мире. Эта сверхмощная ЭВМ установлена на территории Ливерморской национальной лаборатории имени Лоуренса и используется для ядерных разработок.Однако задачи, стоящие перед суперЭВМ, далеко не всегда столь серьезны. В качестве примера можно привести торговую марку Pringles, столкнувшуюся с неожиданными трудностями: при движении конвейера некоторые чипсы вылетали с ленты. Для решения этой проблемы применялись аэродинамические вычисления, которые проводились суперкомпьютером.

История развития1837 г. Вычислительная машинаПредшественницей современных ПК принято считать механическую вычислительную машину под названием Analytical Engine, сконструированную англичанином Чарльзом Бэббиджем.

1941 г. Zuse Z3Первый компьютер, получивший название Z3, был сконструирован инженером Конрадом Цузе и размерами напоминал шкаф. Он был уничтожен во время авианалета в 1943 году.

1964 г. CDC 6600Сеймур Крей создал первый суперкомпьютер стоимостью около $8 млн. Сконструированные Креем машины долгое время оставались самыми быстрыми в мире.

1976 г. Cray 1Основав собственную фирму, Крей выпустил суперкомпьютер Cray 1 с производительностью 250 млн флопс. Эта модель получила огромный успех.

1984 г. М13Рубеж в один гигафлопс покорен: разработанный в СССР суперкомпьютер М13 работает со скоростью 2,4 млрд флопс

1993 г. TOP500Ганс Мойер, профессор из немецкого города Мангейма, с 1986 года вел список самых мощных суперкомпьютеров мира. В 1993-м его сменил рейтинг TOP500.

1995 г. Ядерное оружиеВ США стартовал проект Advanced Simulation and Computing (программа передовых вычислений и моделирования). Компьютерные симуляторы пришли на смену реальным испытаниям ядерного оружия.

1996 г. Шах и матСуперкомпьютеру под названием Deep Blue удалось обыграть чемпиона мира по шахматам Гарри Каспарова в одной партии из шести. А в 1997 году победа была одержана уже во всем матче.

1997 г. ASCI RedНовый прорыв США: производительность разработанного американцами ASCI Red превышает отметку в один терафлопс.

2008 г. ПетафлопсЧтобы преодолеть границу в один петафлопс, потребовалось целых 11 лет. Суперкомпьютер Roadrunner от IBM оценивается в $133 млн.

2010 г. Tianhe-1AСША — признанная компьютерная супердержава, но китайская разработка Tianhe-1A ставит под вопрос гегемонию американцев.

2012 г. SequoiaСконструированный в США сверхмощный компьютер Sequoia работает в шесть раз быстрее, чем Tianhe, и устанавливает новый мировой рекорд — 16,3 петафлопс.2019 г. ЭкзафлопсЭксперты предсказывают, что к 2019 году компьютеры смогут обрабатывать квинтиллион (число с 18 нулями) операций в секунду.

odessamedia.net

Суперкомпьютеры - история и факты

Сегодня в число традиционных экономических показателей (таких как ВВП и золотовалютные запасы) настойчиво стремится попасть еще один - суммарная мощность компьютеров, которыми располагает отдельная страна. Наибольший вес этому показателю будут придавать именно суперкомпьютеры. Еще 15 лет назад их производство было большой диковинкой, а сейчас оно поставлено на поток.

Страница 1 из 2

Логическая способность суперкомпьютеров гораздо выше, чем у обыкновенных машин, их архитектура позволяет ускорить выполнение задач в несколько раз.

Шестидесятые годы ХХ века стали звездным часом советской науки, особенно вычислительной техники. В это время работало множество научных институтов, в которых трудились настоящие гении своего дела - С. А. Лебедев, И. С. Брук, В. М. Глушков и т. д. Созданная в 1967 году БЭСМ была оригинальным русским компьютером, спроектированным параллельно со своим западным собратом. На ее основе действовали знаменитые «Эльбрус», «Эльбрус- 2», «Мир-2».

Именно в «Эльбрусе» впервые, задолго до западных разработок, стали применяться многопроцессорные компьютеры. Многие иностранные ученые, конечно, не согласны, но это факт: впервые суперкомпьютеры начали функционировать именно у нас. К сожалению, в дальнейшем с суперкомпьютерами в нашей стране произошло то же самое, что и со многими другими техническими новинками и промышленностью вообще - ее перестали финансировать. Зато большое распространение суперкомпьютеры получили в США.

Сегодня суперкомпьютеры уже не редкость. Они производятся многими компаниями. Причем цена на них гораздо ниже, чем, скажем, лет 10 назад. Хотя понятно, что чем дешевле сервер, тем проще его процессоры. Как бы там ни было, суперкомпьютеры значительно облегчают любую работу: ведь гораздо выгоднее, когда громоздкие вычисления разделяются на мелкие части и перепоручаются отдельному процессору - осуществляется «параллельное вычисление». Чем больше процессоров, тем больше скорость выполнения операции, а производительность системы увеличивается.

Отдельные вычислительные узлы могут быть и не соединены в один корпус, а представлять отдельно стоящие компьютеры. Тогда будет проходить не «параллельное вычисление», а «распределенное». Например, предварительная обработка данных будет производиться на пользовательской станции, моделирование - на конвейерной, решение уравнений - на пользовательской системе, а визуальные задачи - на графической станции.

xn--80auyf7a.xn--p1ai

История суперкомпьютеров — Мегаобучалка

Одним из первых суперкомпьютеров считается Cray 1, созданный в 1974 году. С помощью поддержки векторных операций эта супер-ЭВМ достигала производительности в 180 миллионов операций в секунду над числами с плавающей точкой.

Применение

Суперкомпьютеры используются во всех сферах, где для решения задачи применяется численное моделирование; там, где требуется огромный объём сложных вычислений, обработка большого количества данных в реальном времени, или решение задачи может быть найдено простым перебором множества значений множества исходных параметров (см. Метод Монте-Карло).

Совершенствование методов численного моделирования происходило одновременно с совершенствованием вычислительных машин: чем сложнее были задачи, тем выше были требования к создаваемым машинам; чем быстрее были машины, тем сложнее были задачи, которые на них можно было решать. Поначалу суперкомпьютеры применялись почти исключительно для оборонных задач: расчёты по ядерному и термоядерному оружию, ядерным реакторам. Потом, по мере совершенствования математического аппарата численного моделирования, развития знаний в других сферах науки — суперкомпьютеры стали применяться и в «мирных» расчётах, создавая новые научные дисциплины, как то: численный прогноз погоды, вычислительная биология и медицина, вычислительная химия, вычислительная гидродинамика,вычислительная лингвистика и проч., — где достижения информатики сливались с достижениями прикладной науки.

Ниже приведён далеко не полный список областей применения суперкомпьютеров:

· Математические проблемы:

· Криптография

· Статистика

· Физика высоких энергий:

· процессы внутри атомного ядра, физика плазмы, анализ данных экспериментов, проведенных на ускорителях

· разработка и совершенствование атомного и термоядерного оружия, управление ядерным арсеналом, моделирование ядерных испытаний

· моделирование жизненного цикла ядерных топливных элементов, проекты ядерных и термоядерных реакторов

· Наука о Земле:

· прогноз погоды, состояния морей и океанов

· предсказание климатических изменений и их последствий

· исследование процессов, происходящих в земной коре, для предсказания землетрясений и извержений вулканов

· анализ данных геологической разведки для поиска и оценки нефтяных и газовых месторождений, моделирование процесса выработки месторождений

· моделирование растекания рек во время паводка, растекания нефти во время аварий

· Вычислительная биология: фолдинг белка, расшифровка ДНК

· Вычислительная химия и медицина: изучение строения вещества и природы химической связи как в изолированных молекулах, так и в конденсированном состоянии, поиск и создание новых лекарств

· Физика:

· газодинамика: турбины электростанций, горение топлива, аэродинамические процессы для создания совершенных форм крыла, фюзеляжей самолетов, ракет, кузовов автомобилей

· гидродинамика: течение жидкостей по трубам, по руслам рек

· материаловедение: создание новых материалов с заданными свойствами, анализ распределения динамических нагрузок в конструкциях, моделирование крэш-тестов при конструировании автомобилей

Производительность

Производительность суперкомпьютеров чаще всего оценивается и выражается в количестве операций с плавающей точкой в секунду (FLOPS). Это связано с тем, что задачи численного моделирования, под которые и создаются суперкомпьютеры, чаще всего требуют вычислений, связанных с вещественными числами с высокой степенью точности, а не целыми числами. Поэтому для суперкомпьютеров неприменима мера быстродействия обычных компьютерных систем — количество миллионов операций в секунду (MIPS). При всей своей неоднозначности и приблизительности, оценка во флопсах позволяет легко сравнивать суперкомпьютерные системы друг с другом, опираясь на объективный критерий.

Первые суперкомпьютеры имели производительность порядка 1 кфлопс, т.е. 1000 операций с плавающей точкой в секунду. В США компьютер, имевший производительность в 1 миллион флопсов (1 Мфлопс) (CDC 6600), был создан в 1964 году. Известно, что в 1963 году в московском НИИ-37 (позже НИИ ДАР) был разработан компьютер на основе модулярной арифметики с производительностью 2,4 млн. оп/с. Это экспериментальный компьютер второго поколения (на дискретных транзисторах) Т340-А[1] (гл. конструктор Д.И. Юдицкий). Однако следует отметить, что прямое сравнение производительности модулярных и традиционных ЭВМ некорректно. Модулярная арифметика оперирует только с целыми числами. Представление вещественных чисел в модулярных ЭВМ возможно только в формате с фиксированной запятой, недостатком которого является существенное ограничение диапазона представления чисел.

Планка в 1 миллиард флопс (1 Гигафлопс) была преодолена суперкомпьютерами NEC SX-2 в 1983 году с результатом 1.3 Гфлопс, и М-13 академика Карцева с результатом в 2,4 Гфлопс[когда?].

Граница в 1 триллион флопс (1 Тфлопс) была достигнута в 1996 году суперкомпьютером ASCI Red.

Рубеж 1 квадриллион флопс (1 Петафлопс) был взят в 2008 году суперкомпьютером IBM Roadrunner.

В 2010-ых годах несколькими странами ведутся работы нацеленные на создание к 2020 году экзафлопсных компьютеров, способных выполнять 1 квинтиллион операций с плавающей точкой в секунду, и потребляющих при этом не более нескольких десятков мегаватт.

megaobuchalka.ru

История развития суперкомпьютеров в России и за рубежом

 

   Итак, мы видим, что без суперкомпьютеров сегодня действительно не обойтись. Осталось прояснить еще один вопрос: почему они считают так быстро? Это может быть связано, во-первых, с развитием элементной базы и, во-вторых, с использованием новых решений  в архитектуре компьютеров. | Попробуем  разобраться, какой из этих факторов оказывается решающим для достижения рекордной производительности. Обратимся  к известным историческим фактам. На одном из первых компьютеров мира EDSAC, появившемся в 1949 году в Кембридже и имевшем время такта 2 микросекунды (210* секунды), можно было выполнить 2п арифметических операций за 18п миллисекунд, то есть в среднем 100 арифметических операций в секунду. Сравним с одним вычислительным узлом современного суперкомпьютера Hewlett-Packard V2600: время такта приблизительно 1,8 наносекунды , а пиковая производительность—около 77 миллиардов арифметических операций в секунду.

   Что же получается? За полвека производительность компьютеров выросла более чем  в семьсот миллионов раз. При  этом выигрыш в быстродействии, связанный  с уменьшением времени такта  с 2 микросекунд до 1,8 наносекунды, составляет лишь около 1000 раз. Откуда же взялось  остальное? Ответ очевиден — за счет использования новых решений  в архитектуре компьютеров. Основное место среди них занимает принцип  параллельной обработки данных, воплощающий  идею одновременного (параллельного) выполнения нескольких действий.

   Различают два способа параллельной обработки: собственно-параллельную и конвейерную. Оба способа интуитивно абсолютно  понятны, поэтому сделаем лишь небольшие  пояснения.

 

   Предположим для простоты, что некое устройство выполняет одну операцию за один такт. В этом случае тысячу операций такое  устройство выполнит за тысячу тактов. Если имеется пять таких же независимых  устройств, способных работать одновременно, то ту же тысячу операций система из пяти устройств может выполнить  уже не за тысячу, а за двести тактов. Аналогично система из N устройств ту же работу выполнит за 1000/N тактов. Подобные примеры можно найти и в жизни: если один солдат выкопает траншею за 10 часов, то рота солдат из пятидесяти человек с такими же способностями, работая одновременно, справится с той же работой за 12 минут—  принцип параллельности в действии!

   Кстати, пионером в параллельной обработке  потоков данных был академик А. А. Самарский, выполнявший в начале 50-х годов расчеты, необходимые  для моделирования ядерных взрывов. Самарский решил эту задачу методом  сеток, посадив несколько десятков барышень с арифмометрами за столы (узлы сетки). Барышни передавали данные одна другой просто на словах и откладывали  необходимые цифры на арифмометрах. Таким образом, в частности, была рассчитана эволюция взрывной волны. Работы было много,  барышни уставали, а  Александр Андреевич ходил между  ними и подбадривал. Так создали, можно сказать, первую параллельную систему. Хотя расчеты водородной бомбы  провели мастерски, точность их оказалась  очень низкой, потому что узлов  в используемой сетке было мало, а время счета получалось слишком  большим.

 

   Что необходимо для сложения двух вещественных чисел, представленных в форме с плавающей запятой? Целое множество мелких операций, таких, как сравнение порядков, выравнивание порядков, сложение мантисс, нормализация и т.п. Процессоры первых компьютеров выполняли все эти «микрооперации» для каждой пары слагаемых последовательно, одну за другой, до тех пор, пока не доходили до окончательного результата, и лишь после этого переходили к обработке следующей пары слагаемых.

   Идея  конвейерной обработки заключается  в расчленении операции на отдельные этапы, или, как это принято называть, ступени конвейера. Каждая ступень, выполнив свою работу, передает результат следующей ступени, одновременно принимая новую порцию входных данных. Получается очевидные выигрыш в скорости обработки

 

Четыре  направления идёт развитие высокопроизводительной вычислительной техники:

Векторно-конвейерные  компьютеры

     Две главные особенности таких машин: наличие функциональных конвейерных  устройств и набора векторных  команд. В отличие от обычных команд векторные оперируют целыми массивами  независимых данных, то есть команда  вида А=В+С может означать сложение двух массивов, а не двух чисел. Характерный  представитель данного направления  — семейство векторно-конвейерных  компьютеров CRAY, куда входят, например, CRAY EL, CRAY J90, CRAY T90 (в марте этого года американская компания TERA перекупила подразделение CRAY у компании Silicon Graphics, Inc.).

     Идея  построения компьютеров этого класса тривиальна: серийные микропроцессоры  соединяются с помощью сетевого оборудования — вот и все. Достоинств у такой архитектуры масса: если нужна высокая производительность, то можно добавить процессоры, а  если ограничены финансы или заранее  известна требуемая вычислительная мощность, то легко подобрать оптимальную  конфигурацию. К этому же классу можно отнести и простые сети компьютеров, которые сегодня все  чаще рассматриваются как дешевая  альтернатива крайне дорогим суперкомпьютерам. (Правда, написать эффективную параллельную программу для таких сетей  довольно сложно, а в некоторых  случаях просто невозможно). К массивно параллельным можно отнести компьютеры Intel Paragon, ASCI RED, IBM SP1, Parsytec, в какой-то степени IBM SP2 и CRAYT3D/T3E.

 

     

Параллельные  компьютеры с общей памятью.

     Вся оперативная память в таких компьютерах  разделяется несколькими одинаковыми  процессорами, обращающимися к общей  дисковой памяти. Проблем с обменом  данными между процессорами и  синхронизацией их работы практически  не возникает. Вместе с тем главный  недостаток такой архитектуры состоит  в том, что по чисто техническим  причинам число процессоров, имеющих  доступ к общей памяти, нельзя сделать  большим. В данное направление суперкомпьютеров входят многие современные SMP-компьютеры (Symmetric).

 

Кластерные  компьютеры

     Этот  класс суперкомпьютеров, строго говоря, нельзя назвать самостоятельным, скорее, он представляет собой комбинации предыдущих трех. Из нескольких процессоров, традиционных или векторно-конвейерных, и общей  для них памяти формируется вычислительный узел. Если мощности одного узла недостаточно, создается кластер из нескольких узлов, объединенных высокоскоростными  каналами. По такому принципу построены  CRAY SV1..HP Exemplar, Sun StarFire, NEC SX-5, последние модели IBM SP2 и другие. В настоящее время именно это направление считается наиболее перспективным.

     Два раза в год составляется список пятисот  самых мощных вычислительных установок  мира Согласно последней редакции списка top500, вышедшей в ноябре прошлого года, первое место занимает массивно-параллельный компьютер Intel ASCI Red. На второй позиции стоит компьютер ASCI Blue-Pacific от IBM, объединяющий 5808 процессоров PowerPC 604e/332MHz. Оба эти суперкомпьютера созданы в рамках американской национальной программы Advanced Strategic Computing Initiative, аббревиатура которой и присутствует в названии. Производительность компьютера, стоящего на последнем, 500-м, месте в списке самых мощных, составляет 33,4 миллиарда операций в секунду.

   Если  мощность существующих компьютеров  поражает, то что говорить о планах. В декабре 1999 года корпорация IBM сообщила о новом исследовательском проекте общей стоимостью около 100 миллионов долларов, цель которого — построение суперкомпьютера, в 500 раз превосходящего по производительности самые мощные компьютеры сегодняшнего дня. Компьютер, имеющий условное название Blue Gene, будет иметь производительность порядка 1 PETAFLOPS (10й операций в секунду) и использоваться для изучения свойств белковых молекул. Предполагается, что каждый отдельный процессор Blue Gene будет иметь производительность порядка 1 GFLOPS (109 операций в секунду). 32 подобных процессора будут помещены на одну микросхему. Компактная плата размером 2x2 фута будет вмещать 64 микросхемы, что по производительности не уступает упоминавшимся ранее суперкомпьютерам ASCI, занимающим площадь 8000 квадратных метров. Более того, 8 таких плат будут помещены в 6-футовую стойку, а вся система будет состоять из : 64 стоек с суммарной производительности) 1 PFLOPS.

 

Виртуальная многопроцессорность

     Основной  смысл технологии Hyper-Threading заключается в поддержке многопотокового исполнения программ. Эта технология позволяет на одном физическом процессоре одновременно исполнять два задания или два фрагмента кода одной программы. Таким образом, один процессор воспринимается операционной системой как два логических устройства, интенсивная работа которых осуществляется параллельно. Производительность таких систем, как правило, значительно превышает аналогичные параметры компьютеров, построенных на основе процессоров традиционной архитектуры. Нередки случаи, когда производительность однопроцессорных решений с реализацией Hyper-Threading повышается на 30%. А это для конфигурации с 3 ГГц процессором эквивалентно применению модели с частотой работы 4 ГГц. Остается добавить, что аудитории были продемонстрированы различные смеси задач, в которых рост производительности превышал 60%, что соответствует уже, по крайней мере, процессору 5 ГГц — уровень пока практически недостижимый даже для оверклокеров, оперирующих традиционными средствами охлаждения. Поддержка технологии Hyper Treading осуществляется многозадачными операционными системами. В качестве таких систем можно привести, Сравнение ПК на базе процессора Pentium® 4 с поддержкой технологии Hyper-Threading и обычной двухпроцессорной системы.

   Идеи  построения собственных суперкомпьютерных  систем существовали в России всегда. Еще в 1966 году М.А.Карцев выдвинул идею создания многомашинного вычислительного  комплекса М-9 производительностью  около миллиарда операций в секунду. В то время ни одна из машин мира не работала с такой скоростью. Однако, несмотря на положительную оценку министерства, комплекс М-9 промышленного освоения не получил. Работы по созданию суперкомпьютерных  систем и суперкомпьютерных центров  ведутся в России и сейчас. Наиболее известна линия отечественных суперкомпьютеров М8С-1000, создаваемая в кооперации научно-исследовательских институтов Российской академии наук и 1ромышленности. Супер-ЭВМ линии МВС-1000—это мультипроцессорный массив, объединенный с внешней дисковой памятью, устройствами ввода/вывода информации и управ 1яющим компьютером. Компьютеры МВС-КЮ0 используют микропроцессоры  Alpha 21I64 (разработка фирмы DEC-Compaq) с производительностью до 1—2 миллиардов операций в секунду и оперативной памятью объемом 0,1—2 Кбайт.

   Моделирование структурообразования и динамики молекулярных и бимолекулярных систем, решение  задач линейных дифференциальных игр, расчет деформаций твердых тел с  учетом процессов разрушения и многие другие. Одна из самых мощных систем линии КIBC-1000, установленная в Межведомственно и суперкомпьютерном центре, содержит 96 процессоров. В последнее время в России, так же как и во всем мире, активно используется кластерный подход к построению суперкомпьютеров. Подкупаются стандартные компьютеры и рабочие. станции, которые с помощью стандартных сетевых средств объединяются в параллельную вычислительную систему. По такому пути пошел, и, надо сказать, успешно, НИ вычислительный центр МГУ, создавший кластер из 12 двухпроцессорных серверов. Сегодня это одна из самых крупнейших в России вычислительных станций. При невысокой стоимости кластер НИВЦ МГУ имеет производительность 5,7 миллиарда операций в секунду при решении линейных уравнений с плотной матрицей размером 16000*16000! В будущем планируется увеличить мощность кластера, как за счет добавления новых узлов, так и за счет технической модернизации старых.

 

  Организация TOP500 Supercomputer sites с 1993 года публикует статистику по 500 наиболее мощным суперкомпьютерам. По данным на июнь 2003 года 5 лучших компьютеров:

  1. Система Earth Simulator (ES), созданная японскими агентствами NASDA, JAERI and JAMSTEC с производительностью 40 TFLOPS, предназначена для точного прогнозирования погодных условий
  2. Компьютер ASCI Q. Национальная лаборатория США, г. Лос-Аламос. Производитель Hewlett-Packard. 3072 серверов AlphaServer ES45s, 12288 процессоров EV-68 1.25 ГГц. Быстродействие 13,88 TFLOPS Суперкомпьютерная система Q в Национальной лаборатории Лос Аламоса (LANL) - компонент Программы Углубленных Моделирований и вычислений (ASCI) - сотрудничества между департаментом Ядерной Безопасности Министерства Энергетики США и национальных лабораторий Лос Аламоса. Задачей ASCI является  создание и использование возможностей для обеспечения безопасности хранения ядерного запаса.
  3. Кластер G5 в Блэксбурге, США, содержит 1100 компонентов Apple  G5, каждый из которых содержит 970 процессоров IBM PowerPC, частотой в 2GHz. Каждый узел имеет 4GB КЭШ-памяти и 160GB SATA накопителей. 176TB общих накопителей.  главных узла для запуска компиляций/работы.  узел управления. Быстродействие 10,28 TFLOPS. Производитель – Apple G5/Mellanox.
  4. Tungsten, самый последний кластер NCSA, будет использовать более чем 1450 двойных процессоров Dell PowerEdge, 1750 серверов, управляемых Red Hat Linux, специальную cеть высокого быстродействия Myrinet 2000,  группу ввода-вывода с более чем 120 TB памяти. Этот комплекс создан для вычислений по решению проблем окружающей среды. Как ожидается, Tungsten будет обладать производительностью в 17.7 TFLOPS.
  5. Тихоокеанская Северо-западная Национальная лаборатория Ричланда, США, обладает пятым в мире по производительности суперкомпьютером MPP2. Его производительность равняется 11 TFLOPS? Что достигнуто благодаря 980 процессорам HP/Linux Titanium 2 (Madison), каждый с тактовой частотой в 1,5 ГГц. Система управляется операционной системой Linux версии Red Hat Linux Advanced Server. Комплекс предназначен для решения сложных вычислительных процессов, связанных с экологическими и биологическими процессами.

stud24.ru


Читайте также
  • Гиперскоростная звезда – более 1.000.000 миль в час
    Гиперскоростная звезда – более 1.000.000 миль в час
  • Астрономы обнаружили самую большую спиральную галактику
    Астрономы обнаружили самую большую спиральную галактику
  • Млечный путь содержит десятки миллиардов планет, схожих с Землей
    Млечный путь содержит десятки миллиардов планет, схожих с Землей
  • Млечный путь разорвал своего спутника на четыре отдельных хвоста
    Млечный путь разорвал своего спутника на четыре отдельных хвоста
  • Найден источник водородных газов для нашей Галактики
    Найден источник водородных газов для нашей Галактики