Популярность использования кластерных решений там, где требуется большая вычислительная мощность, очевидна и обусловлена тем фактором, что именно такой подход позволяет получить необходимую производительность системы при разумных финансовых затратах на оборудование.
В этом материале мы хотели бы познакомить читателя с весьма интересной, с нашей
точки зрения, разработкой украинских специалистов из львовского Института физики
конденсированных систем НАН Украины и компании "ЦЕНIТЕХ". Речь идет
о реально работающем высокопроизводительном вычислительном кластере, применяемом
для решения научных задач. Сам по себе этот проект примечателен тем, что подобное
для Украины пока еще "в диковинку", а кроме того, интересна сама конфигурация
системы, которая использует многопроцессорную платформу от AMD. В этом контексте,
наверное, необходимо отметить, что в академической среде (причем не только у нас)
вопрос финансирования проектов всегда стоит достаточно остро, и с ценовой точки
зрения выбираются наиболее взвешенные решения. Из зарубежного опыта, кстати, можно
привести относительно недавний пример, когда компания RackSaver для астрономов
Калифорнийского университета в Санта-Круз создала кластер, состоящий из 132 модулей
и 232 процессоров AMD Athlon MP. Его мощность сотавляет порядка 300 Gflops…
Но здесь же стоит добавить, что имеется масса примеров построения подобных систем
и на платформе Intel.
Кластер типа Beowulf собран на основе узлов, каждый из которых является двухпроцессорной системой на базе AMD Athlon MP 1500+. Вся система состоит из восьми узлов и одного управляющего компьютера.
Узел кластера:
Координирующий компьютер:
Узлы соединены между собой посредством коммутатора Fast Ethernet. Сам кластер размещен в двух 45U-шкафах с вмонтированными блоками вентиляторов и термовыключателями. Узлы и координирующий компьютер находятся в корпусах 4U Rack Mount на телескопических креплениях. Для визуализации работы узлов кластера используется восьмипортовый переключатель монитора/клавиатуры/мыши ATEN Master View CS-9138.
|
Вот так выглядит герой нашего сегодняшнего материала… |
По заявлению создателей, такой конструктив кластера позволил обеспечить удобство
обслуживания и минимизацию количества сбоев из-за проблем с контактами. Кроме
того, достигнуто весьма компактное размещение системы (занимаемая площадь — 13
кв. м). Из других особенностей: применение мощной системы кондиционирования —
общая мощность 1900 Вт, вентиляция приточно-вытяжная с возможностью регулировки
режимов. Организована также весьма эффективная схема бесперебойного питания
— предусмотрены автоматический переход на резервное питание, высокая устойчивость
к скачкам напряжения, автоматическое выключение системы при отсутствии питающего
напряжения в течение 20 мин.
Что касается программного обеспечения, то в данном случае используется ОС Linux на основе дистрибутива Red Hat 7.1. В качестве системы динамического управления процессами применяется MOSIX 1.5.7, поддерживаются среды параллельного программирования — MPI (Message Passing Interface) и PVM (Parallel Virtual Machine).
Заявленная производительность кластера — 12,5 Gflops при пиковой продуктивности 34 Gflops.
Для повышения быстродействия кластера планируется переход с Fast на Gigabit Ethernet, а также увеличение количества и мощности узлов, доработка и улучшение алгоритмов распараллеливания.
Основными областями применения кластера являются:
Для решения приведенного списка задач используется как готовое ПО DL_Poly, GAMESS-UK, Moldy), так и разрабатывается собственное.
Итак, можно сделать вывод о том, что начало процессу применения кластерных вычислителей в отечественной академической среде положено. Уже существуют вполне работоспособные решения, которые, по нашему мнению, в дальнейшем будут только расширяться, улучшаться и развиваться.