Популярность использования кластерных решений там, где требуется большая вычислительная мощность, очевидна и обусловлена тем фактором, что именно такой подход позволяет получить необходимую производительность системы при разумных финансовых затратах на оборудование.
В этом материале мы хотели бы познакомить читателя с весьма интересной, с нашей
точки зрения, разработкой украинских специалистов из львовского Института физики
конденсированных систем НАН Украины и компании "ЦЕНIТЕХ". Речь идет
о реально работающем высокопроизводительном вычислительном кластере, применяемом
для решения научных задач. Сам по себе этот проект примечателен тем, что подобное
для Украины пока еще "в диковинку", а кроме того, интересна сама конфигурация
системы, которая использует многопроцессорную платформу от AMD. В этом контексте,
наверное, необходимо отметить, что в академической среде (причем не только у нас)
вопрос финансирования проектов всегда стоит достаточно остро, и с ценовой точки
зрения выбираются наиболее взвешенные решения. Из зарубежного опыта, кстати, можно
привести относительно недавний пример, когда компания RackSaver для астрономов
Калифорнийского университета в Санта-Круз создала кластер, состоящий из 132 модулей
и 232 процессоров AMD Athlon MP
. Его мощность сотавляет порядка 300 Gflops...
Но здесь же стоит добавить, что имеется масса примеров построения подобных систем
и на платформе Intel.
Кластер типа Beowulf собран на основе узлов, каждый из которых является двухпроцессорной системой на базе AMD Athlon MP 1500+. Вся система состоит из восьми узлов и одного управляющего компьютера.
Узел кластера:
- плата TYAN Tiger MP S2460;
- два процессора AMD Atlon MP 1500+;
- винчестер объемом 20,4 GB;
- видеокарта S3 Trio 3D/2X 4 MB;
- сеть Realtek RTL8139 10/100 Mbps.
Координирующий компьютер:
- плата TYAN Thunder K7 S2462;
- 2 процессора AMD Athlon MP 1500+;
- винчестер объемом 40,4 GB;
- видео ATI 3D Rage Pro 8 MB AGP;
- сеть 2 3Com 3C920 10/100 Mbps.
Узлы соединены между собой посредством коммутатора Fast Ethernet. Сам кластер размещен в двух 45U-шкафах с вмонтированными блоками вентиляторов и термовыключателями. Узлы и координирующий компьютер находятся в корпусах 4U Rack Mount на телескопических креплениях. Для визуализации работы узлов кластера используется восьмипортовый переключатель монитора/клавиатуры/мыши ATEN Master View CS-9138.
|
Вот так выглядит герой нашего
сегодняшнего материала...
|
По заявлению создателей, такой конструктив кластера позволил обеспечить удобство
обслуживания и минимизацию количества сбоев из-за проблем с контактами. Кроме
того, достигнуто весьма компактное размещение системы (занимаемая площадь -- 13
кв. м). Из других особенностей: применение мощной системы кондиционирования --
общая мощность 1900 Вт, вентиляция приточно-вытяжная с возможностью регулировки
режимов. Организована также весьма
эффективная схема бесперебойного питания
-- предусмотрены автоматический переход на резервное питание, высокая устойчивость
к скачкам напряжения, автоматическое выключение системы при отсутствии питающего
напряжения в течение 20 мин.
Что касается программного обеспечения, то в данном случае используется ОС Linux на основе дистрибутива Red Hat 7.1. В качестве системы динамического управления процессами применяется MOSIX 1.5.7, поддерживаются среды параллельного программирования -- MPI (Message Passing Interface) и PVM (Parallel Virtual Machine).
Заявленная производительность кластера -- 12,5 Gflops при пиковой продуктивности 34 Gflops.
Для повышения быстродействия кластера планируется переход с Fast на Gigabit Ethernet, а также увеличение количества и мощности узлов, доработка и улучшение алгоритмов распараллеливания.
Основными областями применения кластера являются:
- исследование сложных молекулярных систем: многокомпонентных смесей, электролитов, полимеров, жидких кристаллов, коллоидных систем;
- изучение межфазовых явлений на поверхности "жидкость--твердое тело";
- динамические свойства спиновых систем;
- фазовые переходы в ферромагнитных жидкостях;
- исследование бинарных сплавов;
Для решения приведенного списка задач используется как готовое ПО DL_Poly, GAMESS-UK, Moldy), так и разрабатывается собственное.
Итак, можно сделать вывод о том, что начало процессу применения кластерных вычислителей в отечественной академической среде положено. Уже существуют вполне работоспособные решения, которые, по нашему мнению, в дальнейшем будут только расширяться, улучшаться и развиваться.
Як RPA-платформа допомогла SkyUр автоматизувати оплату рахунків