Горячие головы

1 июнь, 2006 - 15:15Александр Черников

В мае 2003 г. в специальном исследовании Gartner Group, посвященном проблемам построения предприятий реального времени, из необходимой для этого 21 технологии почти половина так или иначе относилась к области виртуализации ресурсов. На их доводку отводилось до пяти лет. Сегодня эти прогнозы постепенно сбываются. Кроме того, для платформы х86 появилось бесплатное и Open Source ПО данного класса, что заставляет совершенно по-новому взглянуть на экономические перспективы эволюции корпоративной IT-инфраструктуры.

Реалии виртуализации

Напомним, что за виртуализацию платформы х86 в 1998 г. взялась VMware, филиал ЕМС. Ей понадобилось несколько лет, чтобы вырасти из категории стартапа, но в итоге время для вывода созданного продукта на рынок оказалось весьма удачным. Виртуализация фактически перечеркивает фундаментальный принцип построения IT-инфраструктуры «один сервер – одно приложение», который с увеличением количества серверов и приложений в организациях работает все хуже. Поэтому любой способ упрощения запутываемой в течение многих лет корпоративной информационной сети и удешевления ее поддержки заведомо был бы принят «на ура» и финансовым руководством компаний, и CIO, и системными администраторами.

IDC в отчете за прошлый год сообщила, что три четверти опрошенных ею компаний с численностью персонала 500 человек и выше уже некоторое время экспериментируют в области виртуальных серверов. Более того, 45% серверов, которые они собираются приобрести в 2007 г., будут виртуализируемыми. Столь высокий интерес рынка ощущают почти все разработчики систем хранения данных, сетевых устройств и серверов, включая многочисленные стартапы и Open Source-компании, спешно активизирующие усилия в этой области. Безусловно, виртуализацию пока в основном применяют клиенты, использующие мэйнфреймы, компьютеры IBM iSeries и старшие модели UNIX-систем. Однако если говорить о динамике роста расходов по сегментам, то тут с большим отрывом впереди Windows и Linux – благодаря быстрому развитию ПО от VMware, Microsoft и Xen.

Почти все согласны, что VMware лидирует в этой гонке. Ее клиенты в 90% случаев используют виртуализацию в своем IT-окружении, а 25% из них уже начали стандартизацию всех x86-приложений, переводя их в виртуальный режим. Microsoft с технологией Virtual Server традиционно включилась в игру несколько позже, но уже успела заявить о том, что подобные средства войдут в состав Longhorn. Xen также не прочь ввести соответствующий код в следующую версию ядра Linux, а Red Hat и Novell пытаются сделать то же самое и со своими Open Source ОС. Фактически ПО от Xen уже доступно в бесплатной тестовой версии Fedora, но оно все еще находится в списке нестабильных компонентов. Несмотря на это Red Hat твердо уверена, что ко времени выхода Red Hat Enterprise Linux 5 (RHEL 5) в следующем году все проблемы будут решены.

В дополнение к этим игрокам ряд крупнейших компаний, исторически имеющих мало общего с виртуализацией, также начинают заниматься ею. Cisco продвигает ее на уровне сети. BMC Software только что выпустила инструментальные средства управления виртуальной окружающей средой. AMD и Intel, как известно, реализуют принципы виртуализации в своих микропроцессорах.

На первый взгляд, картина довольно радужная. Но попробуем взглянуть на нее с практической точки зрения клиентов, собирающихся покупать технологии этого класса. Пока что им доступны только отдельные средства для решения частных задач:

– тестирования ПО при разработках – вместо приобретения новых серверов будут «вырезаться» части существующих, чтобы проверить работу продуктов;

– консолидации, которая позволит организациям избавиться от части физических серверов, более полно задействуя ресурсы остальных;

– поддержки наследуемых приложений, которые переносятся с устаревшего аппаратного обеспечения в виртуальное окружение до тех пор, когда их можно будет заменить аналогичными продуктами для более современной платформы.

Вместе с тем отмечается, что реальную отдачу от виртуализации можно получить лишь при автоматизированном управлении системами на основе тщательно разработанных политик. Пока же, пытаясь перевести ресурсы в виртуальный режим, IT-специалисты почти всегда сталкиваются с необходимостью добавлять новое ПО, различные заплаты, пользовательские профили и часто – избыточные образы ОС.

В целом, если в 2005 г. некоторые возможные применения технологий виртуализации были темой для разговоров между клиентами и разработчиками, то в 2007 г. ожидаются их первые реальные продажи и он станет критическим для формирования данного рынка. Текущий же год – это время экспериментов, и первые успехи, видимо, будут наблюдаться в области виртуализированных центров данных, применение которых в IT-решениях уже к его концу станет довольно обыденным явлением.

За что платим?

Термину «виртуализация» сегодня часто сопутствует дополнение «free». Однако достаточно опытный IT-специалист знает, что и «свободное», и «бесплатное» может означать довольно многое. Например, ПО можно бесплатно использовать, но его код закрыт. Или нельзя применять в коммерческих целях, но разрешено модифицировать и перепродавать. Или это модель Internet Explorer, который бесплатен только в том случае, если применяется с другим приложением компании (в данном случае Microsoft Windows)

Именно последний вариант Microsoft выбрала для своих технологий виртуализации, объявив 3 апреля на очередной LinuxWorld в Бостоне, что Virtual Server 2005 R2 стал бесплатным и одной серверной лицензии достаточно для организации четырех виртуальных серверов. Разумеется, этого и следовало ожидать после того как VMware сообщила, что VMware Server станет бесплатной – тем более что продукт Microsoft работает только на собственной платформе. Двигаясь по этому пути, Microsoft, скорее всего, также бесплатно предложит будущую технологию класса hypervisor, известную сегодня под кодовым названием Viridian.

Горячие головы
Похоже, что с помощью виртуализации серверов компании собираются решить сразу все свои проблемы: в среднем 83% респондентов назвали эту технологию «важной» и «очень важной». Однако на первом месте – уменьшение количества физических аппаратных устройств (97%)

Еще на прошлогодней летней LinuxWorld эксперты много говорили о том, что одним из эффектов, сопутствующих виртуализации, будет уход от традиционных коммерческих моделей лицензирования корпоративных приложений, когда пользователи платят за ПО, исходя из характеристик аппаратного обеспечения, на котором оно работает (например, лицензия на процессор или на сервер). Также предсказывалось, что и VMware, и Microsoft, продающие соответствующее ПО, столкнутся с жесткой конкуренцией со стороны достаточно совершенных и в то же время недорогих Open Source-продуктов и, возможно, использование ПО, созданного в рамках Project Xen, станет едва ли не господствующей тенденцией.

Однако разработчики приложений не особенно спешат реагировать на потребность в более гибкой политике лицензирования, хотя она диктуется распространением не только виртуализации, но и многопроцессорной обработки и решеточных (grid) вычислений. Как-то не очень убедительно звучат заявления о том, что они смогут получать за свои продукты даже больше, чем раньше – нужно, мол, только создать соответствующие программы специально для новых методов обработки, предоставить пользователям новые возможности, за которые они не откажутся заплатить.

Поддержка ПО по-прежнему может осуществляться в зависимости от количества процессоров, поскольку ее интенсивность резко не изменяется. Но почему бы и ее со временем не привязать, например, и к числу выполняемых транзакций? Заключения экспертов в основном довольно пессимистичны – все признают, что найти приемлемое решение сложно, и очень многие будут вынуждены оставить этот бизнес или искать приюта у более крупных и удачливых компаний.

Xen и ее «killer app»

В конце прошлого года, в канун рождественских каникул, было много разговоров о только что вышедшей версии Xen 3.0, которую тут же окрестили «приложением-убийцей».

Голоса тех, кто рассудительно говорил, что это еще нужно доказать, терялись в общем восторженном хоре, а спустя месяц-два почти забылись, оставив только ощущение, что Xen – это здорово. Что ж, надо отдать должное специалистам в области маркетинга – они знают свое дело. Собственно, Xen 3.0 – первый серьезный релиз этого продукта с октября 2004 г., когда была представлена версия 2.0, признанная «довольно удачной» и нашедшая свое применение в ASP, розничной торговле, хостинге, разработке и тестировании приложений. Если говорить коротко, то третья версия содержит значительное количество усовершенствований, требуемых крупным предприятиям для реализации принципов виртуализации в корпоративных центрах данных и возможностей используемых серверов – их консолидации и обслуживания без отключения.

Xen 3.0 также содержит несколько ключевых компонентов, которые сторонники Linux и Open Source находят очень важными для предприятий, например поддержку виртуальных многопроцессорных машин (до 32 процессоров) и горячую замену процессорных модулей с автоматическим перераспределением нагрузки.

Конечно, два с половиной года – срок немалый, тем более в отрасли IT. И трудно поверить, что весь этот период был абсолютно необходим для архитектурных и программных разработок. Скорее всего, XenSource в течение некоторого времени выжидала удобного момента для вывода своего детища на рынок. Должна была подрасти Linux, освоены более совершенные технологии и приняты новые концепции потенциальными заказчиками. Сейчас уже почти пора, хотя отраслевая пресса и не пестрит сообщениями о массовом использовании последнего продукта компании.

Несмотря на достигнутые успехи Xen все еще пребывает на раннем этапе своего развития и наберет силу где-то к концу года, чтобы реально конкурировать с разработками таких фирм, как VMware. Но расценивать ее просто как привлекательную технологию или сравнивать с менее совершенными продуктами (например, SWsoft's Virtual Private Servers) уже недопустимо. Ни один серьезный специалист по виртуализации не может себе позволить относиться к Xen пренебрежительно.

Стадия представления сообществу Open Source уже практически завершена. Продукт одобрен и сейчас начинается его активное встраивание в решения других компаний. Здесь наиболее важным станет момент, когда Red Hat и Novell (которых вряд ли кто-то заподозрит в несерьезности намерений) встроят Xen в свои последние релизы.

Предполагается, что после этого новые возможности положительно воспримут не только опытные программисты, имеющие дело с сырыми технологиями, но и основная масса обычных прикладных специалистов. Последние смогут решить две насущные практические задачи – запускать Windows-приложения в среде Linux и, соответственно, уменьшить количество используемых разнотипных серверов, упростив корпоративную инфраструктуру.

Но все же XenSource, являющаяся одним из ключевых создателей технологий виртуализации в мире (а в области Open Source – №1) находится в ситуации, которая может примерно с одинаковой вероятностью привести как к успеху, так и к неудаче ее продукта.

По сути, основная задача XenSource – опередить VMware в мире Linux, и она имеет для этого неплохие шансы. Но нельзя не признать, что по сравнению с серверами Microsoft Windows рынок для Xen относительно невелик, хотя и постепенно растет. Неизбежно Xen придется жестко конкурировать с VMware. А это очень непросто, поскольку последняя формировала не только новый сегмент рынка, но и сами понятия пользователей о виртуализации.

Общий вывод: Xen вряд ли может рассматриваться как «приложение-убийца» сегодня, но, возможно, станет им через год.

Маневры Red Hat

Виртуализация серверов, безусловно, нужна, но по минимальной цене – таково мнение клиентов Red Hat. Ничего нового в данном требовании нет: подставьте вместо первых двух слов название едва ли не любой современной информационной технологии, чтобы убедиться в этом. Но что совершенно точно – виртуализацию пора переводить из разряда экспериментов и экзотики в число надежных и повсеместно используемых тривиальных технологий (что хорошо отражает англоязычный термин commoditized – перевод на уровень предмета потребления). Именно это и предполагает сделать компания в своей очередной версии ОС RHEL5.

Горячие головы
Реклама – двигатель торговли. VMware уже успела предложить свои решения более чем половине компаний, Microsoft – более чем трети. Xen, Red Hat и Novell пока не заслуживают иной категории, кроме «другие»

Главный инженер (СТО) Red Hat Брайен Стивенс (Brian Stevens) в интервью, данном в феврале нынешнего года, осторожно сообщил, что компания находится примерно в середине цикла разработки этого решения, но спешка здесь опасна и лучше немного подождать, но выпустить «неотразимый» продукт. Впрочем, такая отговорка тоже достаточно стандартна. Определенный свет на происходящее проливает еще один комментарий, в котором Стивенс отметил, что крупным компаниям только предстоит осваиваться с виртуализацией, вести ее испытания, преодолевать собственные внутренние препятствия, всегда тормозящие внедрение даже очень совершенных и полезных технологий.

В этом, видимо, и заключается главная причина внешне неторопливой доводки RHEL5 – для ее успеха инфраструктура клиентов должна быть полностью готовой к виртуализации. Сегодня у заказчиков есть ряд проблем, причем они хотят решить их за счет Red Hat (т. е. требуют от нее определенных возможностей ОС), и последняя идет им навстречу в условиях быстро возрастающей конкуренции в данном сегменте IT-рынка. Так что речь, по сути, идет о фьючерсных контрактах, а борьба – за потенциальных клиентов 2007 г.

Кроме того, сам Стивенс не так давно работает на должности СТО Red Hat и только около полугода назад закончил реорганизацию команды разработчиков. Ее цель, по словам Стивенса, заключалась в том, чтобы обеспечить преимущество RHEL5 перед конкурирующими продуктами на пять-шесть лет, а не просто выскочить вперед и продержаться год-два в лидерах.

Однако виртуализация серверов – только одна из частей текущей разработки, хотя она и больше на слуху. Многие заказчики, например, требуют, чтобы центром данных можно было управлять с единственной консоли. Red Hat отстаивает здесь собственную позицию, согласно которой необходим глобальный подход к упрощению управления всем IT-окружением. «Вообще, – отметил Стивенс, – виртуализация настолько модная тема, что многие другие технологии просто не видны в тени, которую она отбрасывает. Скажем, успехи в аппаратном обеспечении почему-то воспринимаются как нечто само собой разумеющееся, хотя сегодня физически небольшие системы достигли уровня возможностей мэйнфреймов прошлых десятилетий. А вот ПО для них еще не разработано. Политика Red Hat в этой области заключается во всемерной помощи заказчикам, использующим или планирующим использование Open Source».

Мегатренд

Таким образом, виртуализация все еще остается не более чем «мегатенденцией», хотя эксперты предсказывают, что в течение ближайших пяти лет она будет так или иначе применяться на всех уровнях IT-инфраструктуры.

И IDC, и Forrester Research солидарны в том, что за это время проблемы виртуализации серверов отступят на второй план, уступив место задачам создания инструментальных средств управления системами. IDC оптимистично предрекает зрелость технологии уже через два года. Forrester Research прогнозирует, что более 60% компаний, экспериментирующих с виртуализацией, будут и дальше двигаться в этом направлении.

По крайней мере, уходят в прошлое времена, когда крупные внедрения корпоративных приложений начинались с построения соответствующей аппаратной инфраструктуры с серверами, устройствами хранения данных и сетями и занимали месяцы, если не годы, требуя участия десятков консультантов и специалистов заказчика. Трудно, конечно, поверить, что теперь замена устаревших приложений станет возможной за считаные часы: теория слишком красива, чтобы быть правдой. Что-то подсказывает, что это произойдет далеко не завтра и со множеством оговорок и условий. Поэтому сейчас сторонникам виртуализации (и тем более Open Source) самое время остудить горячие головы и начать разрабатывать экономические обоснования и ТЗ для перехода на новые принципы построения корпоративных систем. А заодно подумать и о надежности их работы.