`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Как изменилось финансирование ИТ-направления в вашей организации?

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Реконфигурируемый компьютинг -- большое затишье...

0 
 

Год-два назад вокруг реконфигурируемых вычислителей шума было много. Еще бы, ведь тогда казалось, что новые поколения чипов программируемой логики способны не просто обеспечить создание принципиально новых процессоров, но и упростить процедуру адаптации архитектуры этих процессоров к требованиям решаемой задачи до уровня выполнения тривиальной скрытой от пользователя программы. На практике, и это уже стало традицией в годы "обвала доткомов", многообещающая область компьютинга так и не реализовала свой потенциал.
Обещаний было много, ожиданий -- тоже. В реальной жизни все оказалось значительно сложнее -- и элементная база, несмотря на прорыв в достижении высоких тактовых частот и более или менее доступной стоимости, не оправдала надежд низкой скоростью выполнения самой главной процедуры -- собственно конфигурирования, и параллельно развивающиеся "традиционные" вычислители за это время достигли очень высоких показателей производительности. Интерес угас так же быстро, как и в свое время вспыхнул -- сегодня даже на сайте одного из активнейших сторонников идеи реконфигурируемых вычислений, компании Xilinx, эта тематика не в чести (хотя она активно поддерживалась Xilinx с 1995 г.).


С чем и как борются?

Традиционные вычислители, обладающие "застывшей архитектурой", несомненно, привлекательны своей универсальностью. Расплата за такое достоинство -- "средние" показатели производительности для всех классов решаемых задач, что означает -- для каждой отдельной задачи можно создать архитектуру куда более эффективную. Явное противоречие привело к формированию ряда новых направлений в компьютинге, целью которых стало достижение баланса между производительностью и универсальностью. К подобным направлениям можно отнести ASICS, DSPS и FPGAS (аббревиатуры эти весьма условны).

ASICS (Application Specific Integrated Circuits Solutions) -- решения на основе интегральных схем, ориентированных на приложения, -- остается одним из доминирующих на сегодняшний день подходов к нахождению компромисса между универсальностью и производительностью. В рамках ASICS-идеологии архитектура вычислителя полностью определяется характером одной (или ряда сходных) задачи, и по архитектурным спецификациям создаются ориентированные на массовый выпуск дешевые (или относительно недорогие) кремниевые овеществления этой архитектуры. Естественно, что при таком подходе можно находить оптимальные решения задач, например в области обработки сигналов: звуковые карты, процессоры Dolby Surround и прочие необязательные атрибуты современного компьютера чаще всего реализованы именно на основе ASICS-идеологии. Но и здесь есть свои проблемы. Нахождение одного компромиссного решения порождает новые сложности: над разработчиком, свободным в выборе реализации, нависает страшной угрозой жесткое требование рынка -- будущее изделие должно быть настолько массовым (серийным), что оно гарантированно окупит затраты на проектирование. А последние, увы, для ASICS очень высоки. Кроме того, процесс проектирования ASICS по меркам динамичного IT-рынка более чем продолжителен, что придает дорогостоящей процедуре еще и дополнительный фактор риска -- а вдруг получившийся чип к моменту серийного производства окажется уже неконкурентоспособным? Его застывшую архитектуру придется изменять, для чего опять потребуется дорогостоящий и продолжительный процесс реинжиниринга, что, в свою очередь, увеличит риск.

Проблемы ASICS подтолкнули разработчиков к поиску альтернативных решений, и они не заставили себя ждать. Развивавшаяся в собственной нише технология цифровой обработки сигналов (DSP -- Digital Signal Processing) ставила своей целью создание узкоспециализированных "сверхскорострельных" вычислителей, ориентированных на выполнение весьма специфических задач. И, надо сказать, в мире DSP "скорострельности" научились добиваться за весьма разумную цену, что и было взято на "вооружение" сторонниками технологии DSPS (DSP Solutions -- решения на основе цифровой обработки сигналов). Ничего мудреного (на интересующем нас архитектурном уровне, конечно же) в DSPS нет -- ASICS дополнили частичной программной реализацией критичной функциональности, выполняющейся на "реактивном" DSP-процессоре. Такой подход потенциально повышает срок жизни изделий на рынке, что увеличивает доходы производителя и позволяет ему инвестировать большие средства в процесс проектирования новых изделий. Но и здесь есть свои "подводные камни" -- реальные задачи слишком разнообразны, чтобы найти для всех них оптимальный, всегда достаточный и одновременно неизбыточный, набор готовых функциональных блоков для архитектурной модели DSPS.

Соответственно, как грибы после дождя стали появляться и компании, создающие и продающие неовеществленные фрагменты гибридных архитектур DSPS -- так называемую IP (Intellectual Propertie -- интеллектуальная собственность). И разработчики столкнулись с новыми проблемами -- рыночной живучестью фрагментарных элементов еще несуществующих конструкций, необходимостью поиска методов оптимального выбора IP и инструментальных средств, обеспечивающих эффективное проектирование. Несомненно, определенные успехи в решении этих проблем достигнуты, но, если прислушаться к голосам практикующих специалистов, современная ситуация более чем далека от идиллической: "Существующие средства автоматизированного проектирования интегральных схем хотя и позволяют относительно быстро разрабатывать все меньшие по площади кристаллы и все более быстрые изделия, чипы, созданные человеком, остаются непревзойденными".

FPGAS -- решения на основе программируемой логики (перевод аббревиатуры не дословен, но сделано это умышленно, в целях сохранения общности) -- является непосредственным "виновником" недавнего торжества идей реконфигурируемого компьютинга. Программируемая логика -- технология далеко не новая и во все времена своего существования успешно применявшаяся в специфических отраслях массового компьютинга, как-то: в малосерийном производстве уникальных дорогостоящих плат расширения для достижения высоких показателей быстродействия, в крупносерийном выпуске -- для снижения стоимости массовых изделий заменой одной микросхемой программируемой логики дорогостоящих в производстве фрагментов схемы на дискретных компонентах или чипах с малой степенью интеграции. К сожалению, изделия на основе идеологии FPGAS обладают и своими специфическими недостатками -- сравнительно высокой стоимостью сложных реализаций и низкой скоростью программирования. Если первая "болячка" -- сугубо технологическая, и, несомненно, ее значимость со временам будет снижаться, то вторая свидетельствует о наличии архитектурных проблем, с которыми надо бороться. Производители микросхем программируемой логики, естественно, этот вопрос без внимания не оставили -- в современных чипах присутствуют даже такие архитектурные изюминки, как отображение "аппаратно реализованной программы" на... фактически область памяти, доступную стороннему вычислителю посредством быстродействующей шины с соответствующей требованиям реальности разрядностью. Но и столь изящные и быстродействующие решения не позволили полноценно воплотить мечту реконфигурируемого компьютинга -- машину, перестраивающую внутреннюю архитектуру в ходе выполнения программы таким образом, чтобы добиться максимально возможного быстродействия. Причины этого мы обсудим чуть позже.


Трансформация

Сегодняшнее положение дел в реконфигурируемых вычислениях (РВ) можно назвать академическим этапом развития в условиях угасающего интереса. Несмотря на предсказываемые революционные изменения и обещания ряда компаний в ближайшее время начать поставки сверхпроизводительных процессоров, достигнутые результаты оказались, мягко говоря, скромными. Впрочем, это далеко не главное -- самое интересное заключается в трансформации интересов, вызванной как накопленным потенциалом знаний в период "реконфигурируемой лихорадки", так и жесткими требованиями реальности.

Одной из упомянутых причин угасания интереса к РВ является сложность формирования управляющих "программ" -- описаний архитектуры, оптимально реализующей то или иное действие. Подобные задачи не просто алгоритмически сложны -- они очень ресурсоемки и могут попадать в категорию так называемых NP-полных задач, требующих перебора и анализа всех возможных решений. Увы, все это существенно ограничивает перспективность РВ для построения одновременно универсальных и сверхмощных компьютеров. Но... выявленная проблема обладает самостоятельной ценностью -- раз задача формирования оптимальной архитектуры так сложна, значит, ее надо выделить в отдельное направление исследований. И тут несостоявшаяся идиллия РВ привела к неожиданной трансформации интереса исследовательского сообщества -- настолько неожиданной и многообещающей, что оставить ее без внимания было бы непростительно. И все же автор спешит предупредить читателя -- речь идет о пока находящихся в стадии исследований технологиях, и кто может знать, что ждет их в будущем -- забвение или триумф... Загадочная трансформация интереса уже успела получить сложное собственное имя -- "эволюционное проектирование электронных систем" (ЭПЭС). В основу новой молодой дисциплины положены результаты исследований в области решения задач оптимизации методами, моделирующими процесс эволюции по Дарвину (эволюционное или генетическое программирование), и достижения РВ.

Суть первых весьма проста -- создается первоначальная "популяция" (проще говоря, задается множество) из различных вариантов "кандидатов в оптимальное решение", для каждого кандидата задается математическое описание, моделирующее его "здоровье" (или показатели качества), на основе которого специальным алгоритмом осуществляется "естественный отбор" наиболее "живучих особей". Обилие кавычек -- не прихоть эстетствующего автора, а отражение массы или недоопределенных, или пока вообще неопределенных факторов эволюционного процесса -- электронные схемы характеризуются огромным количеством показателей, выражающихся и топологией, и скалярными характеристиками, и "увязать" все это разнообразие воедино -- далеко не простая научная задача. Еще сложнее и в формализации, и в реализации моделирование процесса собственно эволюции -- отобранные на одном этапе кандидаты должны модифицироваться эволюционным алгоритмом так, чтобы их "живучесть" увеличивалась. Математические тонкости всех этих процессов слишком сложны, но и без них понятно, что речь идет о задачах далеко не игрушечных, утилизирующих огромные вычислительные ресурсы. Эти требования возрастают астрономически, если принять во внимание необходимость в дорогостоящей (в единицах машинного времени и памяти) процедуре моделирования каждого кандидата -- варианта электронной схемы. И здесь как раз пригодились наработки в области РВ -- современные исследователи в сфере ЭПЭС используют реконфигурируемые архитектуры FPGAS для реализации схем-кандидатов, что сокращает временные затраты на проектирование на 3--6 порядков! К сожалению, область применения гибридной технологии ЭПЭС/FPGAS распространяется только на дискретные (цифровые) схемы, но в практике современной электроники аналоговой схемотехнике уготована сугубо служебная роль.


Альтернатива

Как ни странно, но и еще не оперившейся технологии РВ существует альтернатива. Причем уже достигшая определенных успехов в своем развитии. Если основная идея апологетов РВ заключается в глобализации конфигурируемых вычислений, то сторонники ее контрверсии, напротив, концентрируются на создании конфигурируемых сопроцессоров, оставляя "классические" компьютеры на первых ролях. В 1989 г. в исследовательских лабораториях DEC был уже создан реально работающий сопроцессор, подключаемый к рабочим станциям, -- DEC PAM (Programmable Active Memory). Он был реализован на весьма скромных по сегодняшним меркам и уже снятых с производства микросхемах XC3090 фирмы Xilinx -- всего в конструкции было задействовано 23 таких чипа. И все же, прежде чем охарактеризовать показатели DEC PAM, стоит два слова сказать о самой микросхеме XC3090, а именно -- о ее ориентировочной стоимости. Вооружившись книгой "Экономика FPGA" (изд. Addison-Wesley, 1997 г.), можно найти оценочную стоимость этого чипа в год написания книги -- в 1997 г. XC3090 в небольших партиях стоила $133. Сопроцессор PAM на 23-х микросхемах на ряде задач показывал весьма внушительные по тем временам результаты -- перемножал многоразрядные целые числа со скоростью, в 16 раз превышающей быстродействие суперкомпьютера Cray-II, решал матричные задачи (уравнение Лапласа) с диковинной скоростью 25 GIPS (25 миллиардов инструкций в секунду), обеспечивал декодирование потока данных, зашифрованного алгоритмом RSA c 512-битовым ключом, в 10 раз быстрее лучших моделей процессора DEC Alpha. Цифры, несомненно, впечатляющие для 1989 г. Однако по нынешним меркам они не так уж и велики, а вот вопрос стоимости остается весьма серьезной проблемой -- "большие" чипы FPGA отнюдь не дешевы и сегодня, а специфика их конструктивного исполнения (корпуса типа BGA с большим количеством выводов) повышает стоимость печатной платы и монтажа. По-видимому, ценовые факторы и бурный рост производительности "классических" процессоров привели к тому, что сегодня платы -- вычислительные акселераторы с реконфигурируемой архитектурой -- стали настоящей редкостью.


Реальность

И все-таки за пределами лабораторий с реконфигурируемыми вычислителями все обстоит не так уж и плохо. В отдельных областях применения они как не имели, так и не имеют себе равных -- при решении задач прототипирования цифровых схем (будущих представителей класса ASICS), в малотиражных изделиях средней и высокой стоимости, когда применение технологии РВ полностью оправдывается сокращением количества компонентов, ограниченной функциональностью и потребностью в сопровождении продукции. В "большом компьютинге" отголоски РВ сказываются в конструкциях современных суперкомпьютеров, но, что более важно, широко используются в специфических подсистемах становящихся все более популярными кластерных спецвычислителей. Естественно, от первоначальной идеи "конфигурирования всего в любое время" реальные устройства далеки, но обеспечиваемые использованием РВ-технологии характеристики полностью соответствуют требованиям своих областей применения.


Самые сложные вопросы

Их стоило приберечь напоследок. Во время первой волны популярности "тотальных РВ" велись робкие, но весьма интересные исследования программной поддержки реконфигурируемых компьютеров. К сожалению, сегодня трудно отыскать исчерпывающие материалы, содержащие изложение видения специалистами системного ПО для РВ. К сожалению -- потому что уникальные особенности реконфигурируемых вычислителей вынуждали искать совершенно нетривиальные подходы к реализации механизмов управления памятью и задачами, оттачивать алгоритмику системных программ и использовать абсолютно новые приемы разработки ПО. Проводились и более занимательные, чем теоретически обоснованные, изыскания в области операционных систем с искусственным интеллектом, интегрирующих в ядре ОС низкоуровневые механизмы с абстракциями сверхвысокого уровня -- экспертными системами на основе нейронных сетей. Причем применение технологии ИИ было обусловлено не потребностями пользователей, а сугубо системной спецификой -- для обеспечения высоких показателей мультизадачных ОС при больших нагрузках.

Сегодня многим ставшим популярными технологиям было бы что унаследовать от программной поддержки РВ: основанным на виртуальных машинах программным системам -- механизмы управления динамической генерацией кода, ОС для встраиваемых систем -- механизмы высоконадежного управления памятью. Увы, потеря интереса к РВ и использование технологии реконфигурируемых вычислений для решения пусть сугубо насущных и нужных, но таких прозаичных задач, не позволяют надеяться на быстрые существенные достижения в этих областях.
0 
 

Напечатать Отправить другу

Читайте также

УБЕЙТЕ эту статью!! Боян. Фсе уже давно изменилось...

 
 
IDC
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT