`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Как изменилось финансирование ИТ-направления в вашей организации?

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Понятие «совокупная стоимость владения» никто не отменял

Статья опубликована в №20 (731) от 8 июня

0 
 

В ситуации рецессии индустрия центров обработки данных обрела еще один вектор, нацелившись на так называемые «зеленые» технологии, призванные снизить совокупную стоимость владения. Практика последних лет внесла в их понимание свои коррективы и показала, что они имеют смысл, лишь когда появляется возможность одновременно сберечь и капитал владельца, и потребляемые им ресурсы, и уменьшить оказываемое данным решением пагубное влияние на окружающую среду. Каков разумный компромисс между следованием имиджевым тенденциям, реальной заботой о природе и потребностями бизнеса ЦОД?

Прежде всего общая точка зрения как вендоров, так и потенциальных заказчиков в части анализа результатов предыдущего года заключается в том, что кризис не уничтожил данный сегмент как таковой. Более того, интерес к центрам обработки данных не снижается.

Еще недавно мало кто обращал большое внимание на совокупную стоимость владения, концентрируясь в первую очередь на стартовых расходах: построить дешевле и быстрее, чтобы как можно раньше запустить ЦОД и начать «отбивать» инвестиции. Сегодня общей (как для России, так и для Украины) тенденцией стало формирование четкого акцента заказчика центра на TCO (Total Cost of Ownership).

Понятие «совокупная стоимость владения» никто не отменял
Фактически для многих эксплуатируемых современных центров характерен типовой коэффициент PUE, равный 2, т. е. «мимо» стоек с оборудованием, потребляющих, например, 10 кВт, в воздух «утекает» еще ровно столько же

В перечне основных требований, предъявляемых к проекту ЦОД, и сегодня приходится сталкиваться с устремлениями части клиентов построить его как можно дешевле. Разумеется, со временем они ощутят, какова настоящая стоимость простоев и отказ какой продолжительности «можно пережить» для данного типа бизнеса. С экономическим спадом многие владельцы центров, несколько лет назад недовложившие относительно небольшие капитальные средства, «внезапно» ощутили, что накладные и оперативные расходы неоправданно велики (например, в связи с ростом цен на электроэнергию) и «съедают» основную часть прибыли. В результате то, что казалось им на тот момент экономией, сейчас обернулось недополученной прибылью либо убытками.

Предметно продемонстрировать вышесказанное можно на базе анализа показателя эффективности использования электроэнергии (Power Usage Effectiveness, PUE). PUE определяется как отношение суммарной потребляемой центром за год мощности к расходуемой на работу ее информационной инфраструктуры части и служит наиболее полной интегральной характеристикой эффективности технологических и административных решений, принятых в ЦОД.

Наиболее «модное и красивое» значение показателя, к которому ныне стремятся, – 1,3. Фактически для многих эксплуатируемых современных центров характерен типовой коэффициент, равный 2, т. е. «мимо» стоек с оборудованием, потребляющих, например, 10 кВт, в воздух «утекает» еще ровно столько же. Разница между первым и вторым значениями PUE – обширное поле для экономии.

Три источника, три составные части...

Понятие «совокупная стоимость владения» никто не отменял
Из практики использования лезвийных серверов для технологий виртуализации, облачных вычислений, да и просто периодических задач известно также о регулярном динамическом изменении нагрузки примерно от трети до максимума, причем в очень короткие сроки

Показатель PUE определяется тремя источниками потерь. Проще всего с последним, третьим, – это служебные нужды ЦОД, чья доля невелика, а пути дальнейшего повышения эффективности просты и очевидны.

Первый источник – потери на пути от поставщика энергии до вычислительной нагрузки. Как правило, они определяются потерями на трансформаторах, в ИБП и в сети распределения. Обычно их доля также незначительна, однако для мощных мегаваттных ЦОД и единицы процентов в абсолютном денежном исчислении хорошо ощутимы.

В противовес псевдоонлайн-режимам, часто называемым «эко», «зеленые», «режимом оптимального КПД», являющим собой питание нагрузки напрямую от сети, минуя ИБП (достаточно представить характер переходных процессов при коммутации килоамперных токов в ЦОД мощностью в сотни киловатт либо мегаватт), вновь привлекают к себе внимание ИБП с дельта-преобразованием. Для этой довольно успешной на практике технологии с КПД преобразования 97% в широком диапазоне нагрузок типичен ряд ограничений, однако ни один из них не является критичным для центров.

Для современных ИБП, выполненных по онлайн-топологии, КПД в оптимальном режиме может достигать 95%. Однако уместно напомнить еще об одном немаловажном аспекте: получить в мощном центре заполнение в 100% по нагрузке зачастую не удается. Как известно, эффективность источника меняется в зависимости от мощности в нагрузке. Система гарантированного электропитания получается более гибкой при модульной конструкции ИБП (пусть они и несколько дороже моноблочных), ведь часть их несложно отключить, оптимизировав тем самым КПД оставшихся в работе.

Вообще рынок, предложив онлайновые ИБП с КПД 96%, пожалуй, уже приблизился в этой области к совершенству, да и при небольших мощностях несколько меньшее значение эффективности источников существенного влияния на стоимость владения центром не оказывает.

Понятие «совокупная стоимость владения» никто не отменял
Для ИБП с дельта-преобразованием с КПД, составляющем 97% в широком диапазоне нагрузок, типичен ряд ограничений, однако ни один из них не является критичным для центров

Потери в самой крупной по вкладу второй группе определяются эффективностью системы охлаждения, в совершенствовании которой имеется значительный потенциал. До сих пор инсталлируется большое количество неэффективных систем, а на охлаждение уходит неоправданно много электроэнергии, представляя обширное поле для экспериментов с «зелеными» решениями.

Что же касается ряда технологий, которые всплыли на волне «зеленых» инноваций, многие из них не совсем новы, и их ограничения хорошо известны. Кроме того, подобные проекты очень сильно завязаны на локальные геоусловия и не могут быть тиражированы без их учета. Для Киева (а центры, как правило, тяготеют к крупным городам), например, – это большая средняя влажность. Поэтому прекрасно зарекомендовавшая себя как энергоэкономичная в сухом климате технология охлаждения с использованием мокрых градирен (процесс охлаждения основан на испарении части воды благодаря направляемому на нее потоку воздуха) в данном случае окажется малоэффективной.

Даже прямая система с непосредственной подачей воздуха занимает достаточно много места. Например, системы с косвенным охлаждением давно используются в структуре американских ЦОД с теплообменниками «воздух-воздух». При этом не секрет, что полезный объем подобных ЦОД почти в два раза меньше традиционных за счет необходимости размещения там дополнительного оборудования (Kyoto-wheel, вентиляторов, теплообменников и пр.). Разумеется, говорить о возведении таких систем не с нуля смысла нет – пристроить их к имеющемуся зданию, как правило, не удается.

Как это ни удивительно, расчеты и практика показывают, что даже если закрыть глаза на ряд моментов, сопутствующих модели построения ЦОД на основе технологии свободного охлаждения (необходимости фильтрации воздуха, установки оборудования для его нагнетания и эвакуации, применения мер по снижению шума и т. д.), средний коэффициент использования электроэнергии для охлаждения с 7–8 поднимается всего до 9–10. Ведь часть года все равно приходится эксплуатировать некую основную систему охлаждения. А значения влажности, характерные для упомянутого региона, потребуют дополнительных затрат на осушение: летом воздух с влажностью 90% для прямого охлаждения – верный путь к отказам оборудования.

Справедливо и обратное: можно подобрать такое оборудование, при котором будут достигаться высокие показатели ЦОД и снизится расход энергии на охлаждение, но для его реализации придется подыскать место для размещения исходя из доминирующих климатических параметров. Примеры успешной реализации такого подхода имеются. Однако отдельные результаты, достигнутые Microsoft и Google в эксплуатации своих ЦОД, зависят не столько от грамотной работы проектировщиков и внедрения первоклассных технических решений, сколько от того, что последние четко привязаны к конкретному характеру нагрузки и конкретным условиям местности.

«Зеленая» ИТ-нагрузка: в чем-то легче, в чем-то нет

Безусловно, есть прогресс в направлении повышения КПД серверов, СХД, телекоммуникационного оборудования, и если говорить о производительности оборудования, то их вычислительная работа в пересчете на каждый затрачиваемый на нее ватт растет. С другой стороны, тепловая мощность, выделяемая одной стойкой, на практике остается как минимум в два раза больше, чем «удобные» 5–6 кВт.

Прогресс наблюдается и с точки зрения снижения потребностей в объеме воздуха, пропускаемого через оборудование для охлаждения. Однако законы теплообмена никто не отменял, и если в стойку свободно «набиваются» современные компактные системы с общим потреблением 40 кВт (и это не предел), то при снижении необходимого объема температура воздуха на выходе будет намного выше, чем у обычных серверов.

Компактные системы легко дают разницу температур входа и выхода 30 °С (а новые модели и все 40 °С!). А между тем значение 30 °С уже является критическим для многих моделей кондиционеров. Соответственно, система охлаждения для них должна не только обеспечивать необходимое количество воздуха, но и позволять снимать выделяемое тепло, не бояться высокой температуры на входе и при этом эффективно работать. Таким образом, в качестве теплоносителя безальтернативно используется вода, а не фреон, и при переходе к перспективной внутристоечной/внутриблочной системам жидкостного охлаждения.

Но и это только верхушка айсберга. Еще один маленький штрих: предположим, что температура воздуха на входе сервера 35 °С. Тогда на его выходе можно ожидать свыше 75 °С, что потребует мер защиты от горячего «выхлопа» обычных подводящих кабелей электропитания и сети (рабочая температура их изоляции, как правило, ниже), а также перенастройки датчиков системы пожаротушения.

Из практики использования лезвийных серверов для технологий виртуализации, облачных вычислений, да и просто периодических задач известно также о регулярном динамическом изменении нагрузки примерно от трети до максимума, причем в очень короткие сроки. APC взяла на вооружение внутрирядное охлаждение в системе с холодным-горячим коридорами за счет размещения кондиционеров непосредственно в рядах стоек. Путь оборота воздуха становится кратчайшим, следовательно, время реакции и затраты электроэнергии на работу вентиляторов снижаются до минимально возможного уровня. А благодаря динамическому изменению частоты вращения вентиляторов и холодопроизводительности кондиционеры APC оптимально соответствуют потребностям и позволяют эффективно решать подобные проблемы, не допуская возникновения локальных зон перегрева устройств.

Стоит также попутно заметить, что зачастую средняя загруженность серверов в эксплуатируемых ЦОД не превышает 20–30%. Это значит, что передовые разработки ведущих производителей «железа» , не учитывающие возможности аварийной нагрузки от 0 % до 100%, в большенстве случаев используются для обогрева воздуха, а часть усилий и затрат по созданию энергоэффективных ЦОД остаются невостребованными.

Выводы

Итак, имеется много путей дальнейшего развития решений в области энергосбережения и повышения эффективности, причем их техническая реализация в последние годы постоянно совершенствуется. Однако они связаны с локальными условиями еще теснее, чем это кажется на первый взгляд. И поле для творчества открывается обширное. Например, что касается снижения расходов, у нас мне неизвестно пока ни одного проекта с охлаждением ЦОД на проточной воде, как на ТЭС и ТЭЦ, в которых обычно воду на эти нужды забирают из реки и в нее же возвращают. Ни систем с дополнительным теплообменником, ни тех, где бы она просто использовалась для охлаждения конденсатора холодильных установок. Понятно, что при этом заказчикам придется решать ряд проблем не только технических, но и административных. Задним числом многие из владельцев ЦОД сетуют, что не добились всех требуемых разрешений и не применяли данный ресурс. Как это, на первый взгляд, ни странно, поддержание температуры конденсаторов холодильных установок около +20 °С может дать порядка 10 кВт холодопроизводительности на каждый киловатт потребляемой системой охлаждения. При этом можно достичь PUE=1,3 даже без установки дополнительных теплообменников свободного охлаждения, а соответственно, и без дополнительных расходов на различные клапаны, прочие элементы конструкции и затрат на их обслуживание.

Возвращаясь к разговору о ранее упомянутых технологиях, можно надеяться, что в ближайшем будущем мы увидим более универсальные, энергоэкономичные и экологичные системы, позволяющие эксплуатировать их «как есть», а не выбирать место для строительства ЦОД. Но на «волшебные» (в десятки раз) коэффициенты повышения эффективности систем охлаждения в сравнении с оптимальными классическими решениями надеяться не стоит. Стремясь к минимальной совокупной стоимости ЦОД, состоящей из капитальных и эксплуатационных расходов, следует просчитывать проект в целом и предлагать его в комплексе, не полагаясь на отдельные преимущества элементов или технологий без учета их доли в общих расходах.

Об авторе: Михаил Балкаров – ведущий специалист APC by Schneider Electric по системному проектированию ЦОД.

http://ru.apc4dc.org

0 
 

Напечатать Отправить другу

Читайте также

 
 
IDC
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT