`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Революція в ЦОД: AI руйнує старі правила гри

Протягом останніх 25 років у центрах обробки даних для хмарних технологій та підприємств домінували універсальні сервери X86 «pizza box». Середня щільність потужності спочатку була невисокою і повільно зростала з 3 кіловат (кВт) на стійку до приблизно 10 кВт у міру того, як центральні процесори ставали потужнішими. 

Середній термін експлуатації центру обробки даних становив щонайменше 30 років, і за цей час відбувалося багато циклів оновлення серверів. Зазвичай компанії могли будувати об'єкти з додатковим вільним простором для розширення, оскільки вимоги до потужності та охолодження серверів змінювалися незначно.

На основі динаміки поставок графічних процесорів для серверних рішень Schneider Electric прогнозує, що 60% усіх встановлених серверів будуть підтримувати додатки АІ. Ці прискорені обчислювальні сервери є справжніми робочими конячками і мають багато графічних процесорів (до 16) з декількома центральними процесорами для миттєвого оброблення даних. Вони вимагають більше енергії для роботи, і більшість з них потребують рідинного охолодження.

З появою великомасштабних моделей штучного інтелекту великих мовних моделей (LLM) та генеративного штучного інтелекту,  еволюція АІ перетворилася на революцію. Швидкість змін стала настільки неймовірною, що традиційні підходи до проєктування та розгортання ЦОД просто не встигають за потребами ринку. Для операторів дата-центрів ситуація ускладнюється тим, що лідери ринку GPU, такі як Nvidia, оновлюють свої продукти майже щороку, а їхнє енергоспоживання при цьому майже подвоюється. 

Еволюція GPU Nvidia AI і середню щільність на стійку при конфігурації в їхніх конструкціях DGX SuperPod є показовою. У 2022 році DGX SuperPods на базі графічних процесорів A100 мали середню щільність потужності близько 25 кВт на стійку. Цей показник значно зріс у 2023 році з появою H100, досягнувши приблизно 40 кВт. Ця динаміка продовжилася у 2024 році, коли покоління GH200 збільшило щільність до 72 кВт на стійку.

У перспективі випуск Nvidia GB200 у цьому році має майже подвоїти цей показник, довівши показник приблизно до 132 кВт. Якщо прогнози виправдаються, покоління VR200 2026 року стане черговим стрибком, потенційно досягнувши 240 кВт на стійку.

Якщо швидкість еволюції була недостатньою, нові екстремальні рівні щільності ставлять серйозні вимоги в плані охолодження та енергоспоживання. Чим вища щільність, тим складніше спроєктувати гібридний центр обробки даних з рідинним та повітряним охолодженням (потрібні обидва) при 132 кВт/стійку проти 10 кВт/стійку через фізичний простір, потенційне перегрівання, підтримку відмовостійкості та ефективності.

Необхідно пам'ятати, що повільна міграція до 10 кВт/стійку відбувалася протягом десятиліть, і проєкти були розгорнуті, протестовані та оптимізовані. Зараз ми не маємо такої розкоші. Ми також не матимемо декількох циклів оновлення ІТ, оскільки потужність і охолодження, необхідні для наступного покоління графічних процесорів, будуть набагато вищими, і без значних оновлень потужності та розподілу електроенергії, а також без додаткового рідинного охолодження зі спеціальними стійками, колекторами, відповідними блоками.

Центри обробки даних, оптимізовані для використання найновіших і найпотужніших графічних процесорів, повинні проєктуватися з урахуванням необхідної щільності потужності - за рік або два до цього. Знову ж таки, це будуть нові конструкції без можливості тестування та оптимізації, а більшість операторів центрів обробки даних не мають великого штату інженерів для створення нових конструкцій для кожного нового покоління Nvidia.

Щоб відповідати  шаленому темпу розвитку АІ-сегменту, індустрія шукає нові, більш гнучкі підходи. Перший з них - це використання технології "цифрових двійників". Замість того, щоб витрачати місяці на фізичне тестування та налагодження, оператори ЦОД тепер можуть створювати точну віртуальну копію своєї майбутньої інфраструктури. Цей "цифровий двійник" дозволяє симулювати робочі навантаження, прогнозувати температуру в різних зонах, оптимізувати потоки повітря та рідини, а також перевіряти надійність систем електроживлення. Інженери можуть експериментувати з різними конфігураціями ІТ-шаф і розташуванням обладнання, що дозволяє знайти найефективніше рішення ще до того, як буде закладено перший кабель. Більше того, ця технологія може використовуватись для моніторингу та управління в режимі реального часу, допомагаючи запобігати перегріву та збоям у вже працюючих ЦОД.

Другий підхід полягає в використанні перевірених еталонних проєктів. В умовах, коли кожен день на рахунку, розробка унікального дизайну з нуля стає розкішшю. Замість цього, багато компаній звертаються до великих постачальників інфраструктури, які вже мають готові, протестовані та оптимізовані проєкти для високощільних ЦОД. Ці "еталонні проєкти" є свого роду шаблонами, які включають в себе всі аспекти - від розташування серверних стійок і систем електроживлення до розведення труб для рідинного охолодження. Це дозволяє компаніям суттєво скоротити час на проєктування та мінімізувати ризики, оскільки вони використовують рішення, які вже довели свою ефективність у боротьбі з викликами, які створює АІ. Це дає змогу зосередитися на розгортанні та масштабуванні, а не на базових інженерних проблемах.

Нарешті, третій, і мабуть, найважливіший підхід - це перехід до модульного будівництва. Традиційні ЦОД будувалися роками, що абсолютно не відповідає сучасним темпам розвитку технологій. Сьогоднішній ринок вимагає, щоб інфраструктура з'являлася за лічені тижні чи місяці. Модульні ЦОД, які збираються на заводі в контрольованих умовах, дозволяють досягти цієї швидкості. Ці модулі, які часто називають "центрами обробки даних у коробці", можуть включати все необхідне - від серверних стійок і розподілу електроенергії до систем рідинного охолодження. Їх просто доставляють на місце і з'єднують, як конструктор LEGO. Це не лише прискорює будівництво, але й підвищує якість, оскільки збірка відбувається в ідеальних умовах, а не на відкритому будівельному майданчику. Такий підхід робить розгортання нових потужностей для АІ набагато більш гнучким і масштабованим, що є вирішальним фактором у сьогоднішній конкурентній боротьбі.

Таким чином, індустрія ЦОД стоїть на порозі нової ери. Традиційні підходи, орієнтовані на повільне та обережне зростання, відходять у минуле. На їх місце приходять інноваційні, швидкі та гнучкі стратегії, що базуються на цифрових технологіях та модульному будівництві. Успіх компаній в найближчі роки залежатиме не лише від того, які сервери вони оберуть, а й від того, наскільки швидко та ефективно вони зможуть адаптувати свою фізичну інфраструктуру до шалених вимог штучного інтелекту. Центр обробки даних перестає бути просто будівлею з комп'ютерами - він стає ключовим стратегічним активом, що визначає майбутнє бізнесу.

Стратегія охолодження ЦОД для епохи AI

Інфраструктура центрів обробки даних входить у фазу трансформації під тиском нових вимог, які створюють високопродуктивні рішення на базі штучного інтелекту. Вже зараз стандартні методи повітряного охолодження не справляються з тепловими навантаженнями, які досягають 100–150 кВт на стійку. Пряме рідинне охолодження поступово перестає бути експериментальним рішенням і перетворюється на необхідний архітектурний компонент для забезпечення стабільності та масштабованості високопродуктивних обчислень.

Особливість сучасних AI-кластерів полягає в тому, що вони потребують високої щільності розміщення GPU, TPU та інших високопродуктивних компонентів. Це, своєю чергою, зумовлює надмірне тепловиділення, яке не може бути ефективно відведене лише вентиляторами чи класичними системами повітряного охолодження. Саме тому в індустрії формується консенсус щодо доцільності гібридного підходу, за якого рідина використовується для охолодження процесорів, а повітря - для супутніх компонентів. Подібна архітектура дає змогу зберегти гнучкість конфігурації та уникнути повної перебудови інфраструктури.

На цьому тлі стратегічна співпраця між Schneider Electric і Motivair відкриває нові можливості для дата-центрів, які націлені на швидке масштабування AI-навантажень. Придбання контрольного пакета акцій Motivair надало Schneider доступ до глибокої технічної експертизи в сфері рідинного охолодження, а також до напрацьованих рішень, що вже кілька років використовуються у співпраці з  технологічними лідерами. 

Так Motivair вже 8 років працює з NVIDIA, тож їхні рішення ідеально підходять до AI-кластерів цього виробника. Нові рішення запускаються швидко, адже охолодження вже адаптоване до розміру та архітектури кластерів.

Завдяки такому підходу Schneider і Motivair:
- використовують готові й перевірені модулі, що скорочують терміни впровадження з місяців до тижнів,
- забезпечують сумісність з серверами різних виробників,
- надають «пазли» для швидкої збірки складної AI-інфраструктури.

У результаті клієнти отримують доступ до рішень, попередньо адаптованих до розміру та вимог новітніх кластерів. Це дозволяє значно скоротити час на узгодження параметрів охолодження і забезпечує високу передбачуваність під час розгортання нової AI-інфраструктури.

Інженерна платформа Schneider передбачає глибоку інтеграцію з існуючими або новими дата-центрами. Рішення на базі блоків розподілу холоду дозволяють адаптуватися до будь-яких архітектурних вимог, незалежно від того, чи йдеться про тепловідведення рідина-повітря, чи рідина-рідина. При цьому, у більшості випадків модернізація можлива без повної реконструкції інфраструктури, що знижує загальні витрати на перехід до рідинного охолодження.

Сучасне охолодження - це не просто технічна функція, а невід’ємна частина архітектури дата-центру нового покоління. Резюмуючи можна відзначити:
Гібридне охолодження - must have. І повітря, і рідина стануть частинами нової реальності.
Масштабованість і швидкість впровадження - критичні. Готові модулі - перевага.
Партнерство з експертами - шлях до безболісного переходу у нову еру.

Schneider Electric разом із Motivair формують нову норму, в якій охолодження - це не обмеження, а інструмент масштабування. Саме така еволюція інженерного підходу відкриває можливість розвивати AI-навантаження у передбачуваному, контрольованому та ефективному режимі.

У наступній частині ми розглянемо технічні варіанти реалізації архітектур на базі рідинного охолодження, а також підходи до інтеграції з енергетичною та мережею інфраструктурою.

AI-толерантні ДБЖ - перша лінія захисту для дата-центрів майбутнього

Інфраструктура AI-систем вимагає новітнього підходу до електроживлення. Навантаження в таких середовищах змінюється миттєво - мова йде про мілісекунди - що створює серйозний тиск на інженерні системи. Якщо джерело безперебійного живлення не готове до таких коливань, ризик збою в роботі зростає в рази. Саме тому сучасні дата-центри потребують AI-толерантних ДБЖ - здатних гнучко й стабільно працювати навіть під екстремальними навантаженнями.

Чому звичайні ДБЖ - вже не варіант
Під час тренування AI-моделей графічні процесори працюють синхронно, що створює динамічний, нестабільний профіль навантаження. Такі «стрибки» потужності можуть спричинити критичні збої, якщо ДБЖ не здатне прийняти динаміку навантаження. Першою лінією захисту тут є саме ДБЖ - і якщо воно не AI-толерантне, усе інше вже не має значення.

Як перевіряється AI-толерантність
Компанія Schneider Electric протестувала свої системи Galaxy V-серії, зокрема Galaxy VXL, у реальних умовах з використанням профілів навантаження від гіпермасштабних клієнтів. Результати вражають: ДБЖ справлялося з миттєвою динамікою навантаження від 1% до 100% без просідань, витримувало 125% навантаження протягом 10 хвилин і навіть 150% - протягом хвилини. Усе це - при температурі 40°C.

Такі результати демонструють, що Galaxy V- серії може без проблем підтримувати роботу навіть найвибагливіших AI-навантажень.

Акумулятори: не всі однаково корисні
Коли йдеться про стабільність, важливу роль відіграє тип батарей. Зокрема літій-іонні акумулятори мають суттєві переваги відносно VRLA акумуляторів при нестабільному електроживленні в умовах високої динаміки зміни навантаження робочих процесів АІ. Це має вирішальне значення для операторів центрів обробки даних, які впроваджують АІ у великих масштабах. Крім продуктивності, літій-іонні акумулятори мають довший термін служби, ніж VRLA варіанти, що зменшує потреби в обслуговуванні та знижує загальну вартість володіння при використанні з ДБЖ для застосування в центрах обробки даних штучного інтелекту.

Для AI-інфраструктури це не просто плюс — це стратегічна перевага.

Резервування, масштабування і Live Swap
AI-навантаження ростуть - і будуть зростати. Але це не означає, що потрібно відразу будувати гігантський дата-центр «із запасом». Galaxy VXL підтримує модульну архітектуру та паралельні конфігурації (n+0, n+1), що дозволяє масштабуватись у міру зростання потреб.

Особливість Live Swap - можливість додавати чи замінювати модулі без зупинки системи. «Це як замінити колесо, не зупиняючи автомобіль».

Резюме
AI вимагає не просто надійного електроживлення - потрібна інтелектуальна та гнучка енергетична інфраструктура. Наприклад, випробування навантаженням Schneider Electric показують, що Galaxy VXL разом з іншими 3-фазними ДБЖ серії Galaxy V зберігають стабільну вихідну потужність, попри значні коливання навантажень АІ. Це означає, що наші рішення забезпечують підтримку АІ-кластерів, знижуючи ризик перебоїв у живленні. А завдяки вбудованій модульності та резервуванню, ДБЖ Galaxy VXL дозволяють центрам обробки даних підвищити стійкість, масштабованість та забезпечити готовність до майбутніх потреб.

Як спрощення процедур мінімізує кіберризики

Забезпечення безпеки ІТ-інфраструктури є роботою, пов’язаною із щоденними викликами, які з часом тільки ускладнюється. Випадки витоку даних з'являються в новинах майже щодня, і, як правило, відповідальність за них лягає на CIO.
 
За даними Harvard Business Review, вартість акцій публічних компаній після витоку даних знижується в середньому на 7,5%, при тому, що середня капіталізація в оцінках складала 5,4 млрд дол. А на відновлення вартості акцій до рівня, що був до кіберінцинденту, уходило в середньому 46 днів, якщо вдавалося це зробити.
 
Аналітики розглядають й інші наслідки кібератак, про які ми можемо не відразу подумати. Наслідки атаки можуть забрати у компанії всі ресурси або позначитися на всьому ланцюжку постачання. А сама атака може навіть призвести до зниження кредитного рейтингу, що може вплинути на здатність компанії отримати фінансування.
 
Ми бачимо два основні напрямки, на яких зосереджена увага, коли йдеться про кібербезпеку. І в цьому є свої суперечності: хоча керівники компаній називають кібербезпеку серед фокусів, вони часто не роблять елементарних речей для запобігання атакам.
 
Коли йдеться про мінімізацію ризику кіберінциденту, дуже важливо підтримувати прошивки в актуальному стані та дотримуватися передових практик. На жаль, це завдання є відомою слабкістю, оскільки більшість клієнтів його не виконують. За нашими даними, щонайменше 60% пристроїв використовують застаріле вбудоване ПЗ, а 78% пристроїв мають відомі вразливості, якими можуть скористатися хакери зі злим умислом.
 
Звісно легко звинуватити клієнтів у тому, що вони не встановлюють оновлення, але ми у нашій компанії вирішили поставити питання руба: чи зробили наші ІТ-фахівці EcoStruxure все можливе, щоб допомогти клієнтам у розв'язання цієї проблеми?
 
Як результат, стало зрозуміло, що потрібно зробити більше для того, щоб максимально спростити для наших клієнтів процес оновлення прошивок і програмного забезпечення і переконатися, що вони дотримуються найкращих практик.
 
У випадку з вбудованими системами нашої компанії було розроблено новий набір інструментів, які проактивно перевіряють наявність нової прошивки та спрощують масове розгортання оновлень прошивки. Інструмент Secure Network Management Card (NMC) System Tool перетворює громіздкий процес пошуку та встановлення новітньої прошивки на всі пристрої, роблячи цей процес на 90% швидшим. Це означає, що користувачам більше не потрібно шукати прошивку на спеціальних ресурсах. А ще перевіряти, чи є ця прошивка останньою для їхнього пристрою, потім читати примітки до випуску, щоб зрозуміти, що входить у нову версію, перш ніж завантажити її та оновити свій пристрій. Замість цього Secure NMC System Tool повідомляє клієнтів про наявність нової прошивки та направляє їх на встановлення нової версії. Це суттєво спрощує завдання з оновлення ПЗ.
 
Друга сфера, на яку звернули увагу наші фахівці, - це сертифікація кібербезпеки, яка стала необхідним способом переконатися в тому, що постачальники дотримуються передових методів мінімізації кіберризиків у своїх процесах розробки.
 
Schneider Electric постійно інвестує в отримання сертифікатів кібербезпеки від незалежних організацій зі стандартизації, щоб гарантувати, що продукти, призначені для дата-центрів і розподілених ІТ-середовищ, відповідають набору чітко визначених вимог і проходять ретельне тестування та оцінку.
 
Серед сертифікатів:
 
ISO27001 - міжнародний стандарт для систем управління інформаційною безпекою (ISMS). Він забезпечує систематичний підхід до управління конфіденційною інформацією компанії, гарантуючи її збереження. Ця сертифікація має широке охоплення та охоплює людей, процеси та ІТ-системи, застосовуючи процес управління ризиками.
 
IEC 62443-4-2 описує вимоги Міжнародної електротехнічної комісії (IEC) до технічної безпеки компонентів у межах IACS, надаючи розробникам і виробникам продуктів рекомендації щодо забезпечення стійкості до кіберзагроз.
 
FIPS 140-3 - це державний стандарт США, що визначає вимоги до безпеки криптографічних модулів. Ці модулі являють собою апаратні або програмні компоненти, які шифрують і розшифровують дані, забезпечуючи безпечний зв'язок і захист даних.
 
Незалежні сертифікати кібербезпеки не так просто отримати, і це не одноразовий підхід. Вони вимагають постійних витрат часу, грошей і ресурсів і вважаються важливими для демонстрації прихильності кібербезпеки.
 
Необхідно зазначити, що кібербезпека - це шлях, який потребує інвестицій і Schneider Electric дотримується у цьому напрямку стратегічного підходу. Наші клієнти мають бути впевнені в тому, що ми будемо з ними надовго, і це вкрай важливо в такій галузі, як наша, де пристрої будуть використовуватися протягом 5, 10 або навіть 15 років. Використання новітніх технологій і методів для забезпечення безпеки ІТ-інфраструктури в поєднанні з правильним виконанням основних завдань і дотриманням передового досвіду допомагає долати цей шлях.

Плануємо впровадження системи рідинного охолодження

Вивчивши архітектурні особливості рідинного охолодження, час перейти до загальних рекомендацій з планування успішного впровадження рідинного охолодження (РО) у дата-центрі, націленого на AI-завдання.
 
З огляду на проблеми з живленням, охолодженням і стійками, які пов'язані з розгортанням робочих навантажень AI, планування фізичної інфраструктури має здійснюватися паралельно з ІТ-плануванням. Завчасне планування знизить ризики виникнення проблем і затримок. Це має бути спільна робота ІТ-відділу та відділу експлуатації. В іншому разі ви вкладете гроші в дуже дороге ІТ-обладнання, а воно залишиться без діла, поки ви розроблятимете план його підтримки. Наведемо рекомендації щодо розв'язання декількох загальних проблем.
 
Як уникнути затримок під час впровадження AI? Відомі випадки, коли організація купувала кілька серверів NVIDIA DGX, а потім виявлялося, що для їхнього встановлення не вистачає потужності. Такий самий сценарій може статися і з охолодженням. При будуванні нового дата-центру, процес проєктування має враховувати й оптимізувати вимоги до рідинного охолодження. Якщо йдеться про наявні ЦОДи, оцінка майданчика - одна з перших справ, яку має зробити ваша команда, щоб виявити ризики для графіка розгортання AI.
 
Перш за все необхідно переконатися, що ваша система охолодження має достатню резервну потужність для підтримки запланованих серверів. Визначте, чи є у вашого джерела безперебійного живлення резервна потужність для підтримки помп блоків розподілу холоду (БРХ). Втрата охолодження може призвести до зупинки сервера або, що ще гірше, до пошкодження мікросхем. Важливо розібратися в резервних компонентах вашої холодильної установки. Наявність резервних компонентів робить розгортання менш руйнівним для наявних критичних навантажень.
 
Визначте, чи потрібна вам холодильна установка. Якщо її немає, розгортання системи рідинного охолодження стає менш реалістичним у міру збільшення кількості серверів із рідинним охолодженням. Також визначте, чи може чиллерна установка забезпечувати температуру води, сумісну як з повітряним, так і з рідинним охолодженням ІТ-обладнання. Зверніть увагу, якщо у вас є режим економайзера, перевірте, чи сумісний він із пропонованою температурою охолодженої води. Оцініть, чи може система управління інфраструктурою центру обробки даних (DCIM) контролювати систему рідинного охолодження, включно з виявленням витоків. Якщо у вас немає системи DCIM, слід розглянути можливість її впровадження. Переконайтеся, що обладнання для розподілу охолодження входить до списку схвалених виробниками серверів і не порушує гарантійну політику. Сюди входять колектори, трубопроводи від колектора до сервера, з'єднувачі, регулювальні клапани, помпи та блоки БРХ.
 
Щодо структурних міркувань, перевірте, чи достатньо у вас вільного простору під стелею для встановлення повітряного захисту навколо кластера стійок AI. Це зменшить імовірність виникнення гарячих точок і підвищить ефективність. Переконайтеся, що перекриття або фальш-підлога дата-центру розраховані на вагу пропонованих стійок AI. Були реальні випадки, коли дорогі навчальні стійки AI провалювалися крізь підлогу, яка не була розрахована належним чином. 
 
Цілком імовірно, що співробітники вашого дата-центру не мають безпосереднього досвіду роботи з блоками БРХ і розподілом води по серверах з рідинним охолодженням. Але в них має бути досвід роботи з чиллерними установками, що дасть їм хорошу основу для накопичення знань. Використовуйте екосистему кваліфікованих партнерів для створення цієї основи. Постачальники, які розробляють і виробляють блоки БРХ, розуміють усю складність рідинного охолодження і можуть допомогти знизити ризики. Коли справа доходить до встановлення, постачальники також повинні мати список рекомендованих монтажників різних спеціальностей, які розбираються в цих системах. 
 
Перехід на рідинне охолодження в центрах обробки даних — це комплексний процес. При цьому дуже важливо ознайомити ваші бізнес-команди із технологією. Це допоможе вашій організації брати участь у дискусіях про рідинне охолодження та ухвалювати обґрунтовані рішення. AI та технології рідинного охолодження швидко розвиваються, тому будьте в курсі подій.  
 
Вкрай важливо тісно співпрацювати з технологічними партнерами, включно з ІТ-постачальниками, фахівцями з охолодження, системними інтеграторами та партнерами з обслуговування. Вони допоможуть спланувати, спроєктувати, впровадити та підтримувати архітектуру рідинного охолодження відповідно до ваших загальних та операційних цілей. 
 
Рідинне охолодження стійок AI високої щільності є більш енергоефективним, ніж традиційне повітряне охолодження. Порівняйте конкретні системи, які ви обираєте (наприклад, БРХ), з вашими цільовими стандартами енергоспоживання та стійкості, якщо це може бути застосовано. Тісна інтеграція систем керування дає змогу автоматизувати температурний режим для подальшого зниження енергоспоживання. Програмний моніторинг, управління та звітність також допомагають центру обробки даних відстежувати енергоспоживання й ефективність охолодження в режимі реального часу, що дає змогу вносити корективи для подальшої оптимізації та забезпечення відповідності стандартам стійкості та нормативним вимогам. Немає потреби йти на компроміс із цілями сталого розвитку; рідинне охолодження може зменшити вуглецевий слід і підтримати загальні цілі сталого розвитку.

Критична роль рідинного охолодження в AI-інфраструктурі

У міру того, як динамічно розширюється застосування в бізнесі технології штучного інтелекту, на передній план виходить впровадження систем рідинного охолодження.

Необхідність в імплементації даної системи пов’язана з появою в дата-центрах спеціалізованих серверів, оснащених високопродуктивними GPU та TPU процесорами, що мають суттєво більші показники TDP в порівняні з традиційними серверами, котрі використовують повітряну систему охолодження своїх компонентів. Повітряна система охолодження бездоганно виконує покладені на неї функції в разі, коли значення TDP менші за 700 Вт. Коли значення TDP більші від цього значення, це призводить до необхідності збільшення фізичних розмірів сервера, як наслідок, кількість серверів, що можуть бути встановленні в одну серверну шафу зменшується. Всі ці факти призводять до збільшення затримки (latency) між GPU та TPU, що скорочує час навчання AI-моделей, а це є одним з найважливіших факторів для інвестицій у АІ.  

Нагадаємо, GPU (Graphics Processing Unit, графічний процесор) - це спеціалізований електронний компонент, призначений для обробки графічної інформації.  GPU розроблялися для прискорення обробки зображень та відео, їхня паралельна архітектура виявилася дуже ефективною для широкого спектру обчислювальних завдань, зокрема в машинному навчанні, наукових розрахунках та інших сферах. Своєю чергою, TPU (Tensor Processing Unit) – тензорний процесор, розроблені Google спеціально для прискорення завдань машинного навчання, особливо тих, що використовують тензори (багатовимірні масиви даних). При цьому TDP - параметр, який характеризує тепловиділення процесора або іншого компонента комп'ютера. Даний параметр відображає, яку кількість тепла потрібно відвести від цього компонента, щоб забезпечити його нормальну роботу.

Версії навчальних AI-серверів із рідинним охолодженням стають дедалі поширенішими, а деякі моделі, розраховані виключно на рідинне охолодження. Існує два основні підходи до рідинного охолодження серверів: прямий і занурювальний. Варто зазначити, що обидва ці підходи можуть бути використані як з однофазними, так і з двофазними рідинами.

Пряме рідинне охолодження (однофазне), також зване прямим охолодженням кристала, стало кращим методом у сучасній індустрії. Холодні пластини використовують для відведення тепла від компонентів сервера, як-от графічні процесори, без будь-якого контакту між рідиною і сервером. Цей метод дає змогу звести до мінімуму, а в деяких випадках і зовсім відмовитися від використання серверних вентиляторів і оптимізує використання простору в стійках. До інших причин такої переваги галузі належать адаптованість до наявних конфігурацій із повітряним охолодженням, простота реалізації та нормативні переваги порівняно з двофазними рідинами.

Більшість серверів із прямим рідинним охолодженням вимагають гібридного або змішаного підходу до охолодження (повітря плюс рідина), оскільки деякі компоненти в сервері все ще потребують повітряного охолодження. Навіть якщо деякі з серверів на 100% безпосередньо охолоджуються рідиною, інше ІТ-обладнання в центрі обробки даних, як-от системи зберігання та мережі, все одно потребує повітряного охолодження. Тому в більшості дата-центрів зі штучним інтелектом рідинне охолодження співіснуватиме з традиційним повітряним охолодженням у найближчому майбутньому.

Як наголошують фахівці Schneider Electric, важливо розуміти, що рідинне охолодження - це архітектура, а не окреме рішення. Воно являє собою комплексну систему, спрямовану на оптимізацію теплової ефективності різних компонентів. Така тісна інтеграція з ІТ-пристроями вимагає ретельної координації з наявною інфраструктурою, включно з традиційними системами відведення тепла.

Хоча архітектури рідинного охолодження відрізняються від традиційних архітектур з використанням охолодженої води, деякі моменти залишаються незмінними. В обох архітектурах тепло від ІТ-обладнання передається назовні за допомогою системи відведення тепла, розташованої зовні. Фактично, у багатьох випадках під час модернізації можна використовувати більшу частину наявної фізичної інфраструктури, а не встановлювати нову спеціальну систему відведення тепла для серверів із рідинним охолодженням.

Крім того, якщо проєкт є новим центром обробки даних, є додаткова свобода вибору чилера, що забезпечує оптимальний баланс ефективності та продуктивності для навантажень як із повітряним, так і з рідинним охолодженням. Отже, чим же насправді відрізняються архітектури з повітряним і безпосереднім рідинним охолодженням?

У системах рідинного охолодження Schneider Electric використовуються блоки розподілу холоду (БРХ), які передають тепло від холодних пластин до іншої частини системи охолодження.

БРХ можуть передавати тепло двома способами. В одному використовується теплообмінник рідина-повітря (як радіатор), тоді як у другому - теплообмінник рідина-рідина. БРХ існують на рівні стійки, ряду або кімнати.

Виникає резонне запитання: «Чому б замість БРХ не використовувати воду для охолодження безпосередньо з холодильної установки?» І тут слід мати на увазі, що вода для відведення тепла від ІТ-компонентів тече крихітними каналами в холодильній пластині, які піддаються засміченню, якщо вода не відфільтрована і не очищена.

За допомогою фільтрації з води видаляються частинки розміром понад 25-50 мікрон, а хімічна обробка запобігає біологічному росту та забрудненню. Тому й виникла необхідність у БРХ. По суті, при цьому використовується теплообмінник для ізоляції системи водопостачання об'єкта від ІТ-системи. БРХ також забезпечує інші ключові функції, включно з регулюванням потоку води, її температури та тиску. Система управління БРХ покликана підтримувати постійну температуру на чипах, щоб не допустити теплового удару і пошкодження мікросхем.

Після вивчення архітектурних особливостей рідинного охолодження перейдемо до рекомендацій з планування, які необхідні для успішного впровадження таких рішень в AI дата-центрі. І в наступному пості цього блогу розглянемо шляхи розв'язання загальних проблем, що пропонує Schneider Electric, у рішеннях щодо впровадження рідинного охолодження.

Як BIM допомагає прискорити впровадження модульних центрів обробки даних

Швидке розгортання технологій і операційна стабільність часто стають найважливішими аспектами конкурентної переваги в багатьох галузях промисловості. Саме тому сучасні технологічні підходи, такі як збірні модульні центри обробки даних, відіграють сьогодні вирішальну роль в індустрії ЦОД.
 
За даними аналітичної компанії MarketsandMarkets, ринок модульних ЦОД оцінювали у 23 млрд дол. у 2022 році та, як очікується, він зросте до 88,5 млрд дол. до 2030 року. На відміну від традиційних будівельних проєктів, у яких центри обробки даних зводять на місці, модульні ЦОДи попередньо проєктують, будують і тестують на заводі, а потім доставляють на об'єкт замовника.
 
Модулі «центру обробки даних у коробці» являють собою самостійні закриті системи електроживлення, стійок і підсистем охолодження для розміщення потрібних замовнику ІТ-потужностей та програмного забезпечення. Вони призначені для встановлення поза будівлею (наприклад, на прилеглій території), і часто кілька модулів служать розширюваними блоками обчислювальної потужності. Це рішення пропонує альтернативний підхід до будівництва традиційного центру обробки даних, який має унікальні переваги в плані продуктивності та часу виведення у роботу.
 
Використовування інформаційного моделювання будівель (building information modeling, BIM) значно прискорює час побудови контейнерних ЦОД. Крім того, ця методологія спільної роботи не тільки пришвидшує і спрощує створення, але й оптимізує ефективність керування центром обробки даних протягом усього життєвого циклу проєкту. 
При цьому використовуються тривимірні моделі всього модульного ЦОДу, включаючи інформаційні дані про всі його складові частини.
 
Компанія Schneider Electric поєднує переваги BIM з методологією проєктування і будівництва збірних модульних центрів обробки даних.
 
Як правило, над проєктом впровадження модульного центру обробки даних працюють декілька команд. Групи, до складу яких входять проєктувальники (які узгоджують і переглядають проєкти), фахівці, що складають специфікацію матеріалів, інженери- і технічний персонал (який збирає й тестує модульні компоненти), працюють у єдиній системі. Це зводить до мінімуму помилки проєктування та будівництва, що прискорює процес впровадження рішення. Методологія BIM дає можливість з'єднати різні гілки підготовчого процесу та забезпечує необхідну структуру для імплементації проєкту.
 
При використанні такого підходу управління змінами значно скорочується, оскільки кожна команда знає, що було оновлено в режимі реального часу. Завдяки спільній роботі методологія BIM зводить до мінімуму виробничі помилки та значно скорочує час простою ЦОДів кінцевих користувачів. Це впливає на всі етапи - від фази проєктування, планування, процесу зборки й тестування, що призводить до підвищення ефективності.
 
У той час як будівництво звичайного центру обробки даних займає близько 36 тижнів, збірний модульний ЦОД може бути впроваджено у термін до 16 тижнів у випадку використання методології BIM та завчасного замовлення обладнання з тривалим терміном виготовлення на ранніх етапах процесу. Крім того, такі компанії, як Schneider Electric, виробляють 90% обладнання та програмного забезпечення, яке використовується в ЦОД. Це джерела безперебійного живлення (ДБЖ), пристрої прецизійного охолодження, стійки, щити, блоки розподілу живлення, шини та інше.
 
Методологія BIM також розроблена таким чином, щоб забезпечити безперешкодне залучення замовників на всіх етапах розробки. Починаючи з початкового збору специфікацій і на всіх етапах проєктування/будівництва, замовники можуть активно впливати на процес і давати необхідний зворотний зв'язок. Отримавши доступ до тривимірної моделі модульного центру обробки даних, замовники можуть бачити, як розвивається їхній проєкт, аж до рівня трубопроводів і електричних з'єднань, і як саме просувається розробка і побудови.
 
Компанія Schneider Electric інтегрує в процес BIM важливі програмні продукти, щоб постійно оптимізувати та прискорювати процес проєктування/будівництва модульних центрів обробки даних. Одним із популярних інструментів, наприклад, є сканер Point Cloud. Він використовує тривимірне лазерне сканування для створення точок даних, що відображаються в тривимірному просторі. Наприклад, під час сканування модульного центру обробки даних кожна віртуальна точка являє собою реальну точку на стіні, дверях, серверному ряді, електричній або трубопровідній інфраструктурі. Таким чином, всі сторони отримують неймовірно детальний опис конкретної модульної інфраструктури ЦОД.
 
Використання віртуальної реальності, засобів доповненої реальності та інструментів проєктування електричних систем, як-от платформа ETAP Solution Digital Twin, дає змогу командам максимально оптимізувати всі процеси. 
 
Великою перевагою є те, що інженерні робочі групи та персонал на виробництві можуть постійно порівнювати відповідність віртуального представлення проєкту з реальним ходом впровадження. Вся екосистема, так би мовити, працює у фоновому режимі, створюючи надійні, ефективні та стійкі проєкти ЦОД, орієнтовані на бізнес-потреби замовника. Таким чином, необхідні зміни виконуються швидше і точніше, що призводить до створення надійного рішення у рекордно короткі терміни.
 

Штучний інтелект майбутнього потребує ЦОД нового рівня

Багато хто висловлює щиру стурбованість тим, що штучний інтелект означає для них і їхнього місця у світі. Найпоширеніше запитання: «Як зупинити АІ від захоплення світу?». Йдеться про «технологічну сингулярність» - гіпотетичний майбутній момент часу, коли АІ стане неконтрольованим, що призведе до непередбачуваних наслідків для людської цивілізації.
 
Зараз ми перебуваємо на початку нового шляху. AI розробляється не для того, щоб витіснити людство. Навпаки, над цією технологією працюють для того, щоб зробити речі, у нашому повсякденному житті та роботі, ефективнішими та результативнішими. Цінність і функціональність АІ не з'являться відразу. Людському мозку знадобилося понад три мільйони років, щоб розвинутися до того рівня, на якому він перебуває зараз.
 
Наприклад, візьмемо велику мовну модель (англ. large language model, LLM). Ось визначення, що дає TechTarget: «LLM - це еволюція концепції мовної моделі в ШІ, яка значно розширює обсяг даних, які використовуються для навчання і висновків. Своєю чергою, це забезпечує значне збільшення можливостей моделі ШІ».
 
Хоча це правда і звучить голосно, але не описує того, що LLM може робити сьогодні. Багато людей дуже переоцінюють можливості AI. Зараз можливості LLM охоплюють наступне:
 
- Пошук і узагальнення; іншими словами, допомога людям у пошуку необхідного контенту і його стисле представлення.
 
- Відповіді на загальні питання, наприклад, для ліній підтримки клієнтів і загальних запитів.
 
- Дослідження ринку та аналіз конкурентів.
 
- Предикативна аналітика.
 
- Супровід і допомога як в особистих, так і в робочих справах.
 
- Автоматизація робочих процесів.
 
- Цифрова співпраця.
 
Загалом, LLM використовується для того, щоб допомогти людям і компаніям отримувати цінну інформацію, прогнозувати майбутнє й ухвалювати правильні рішення - не зовсім замінюючи роль людини в суспільстві.
 
Куди може завести AI - цікавіша тема, і вона охоплює такі галузі, як:
 
- Автоматизована охорона здоров'я: Персоналізовані плани лікування, операції за допомогою AI та навіть предикативні моделі охорони здоров'я.
 
- Автономне виробництво: Передбачення того, що потрібно побудувати, пошук матеріалів і управління операціями.
 
- Розширена віртуальна і доповнена реальність: Імерсивний досвід, що стирає межу між реальним і віртуальним світом.
 
- Автономний транспорт: Автомобілі, літаки та кораблі, керовані машинами.
 
Уся ця автоматизація AI не відбудеться за помахом чарівної палички. У випадку з AI потрібно буде створити ІТ-інфраструктуру для розроблення та навчання моделей LLM, і ще більше ІТ-інфраструктури буде потрібно для глобального масштабування, щоб підтримувати робочі версії цих LLM ближче до користувача.
 
Навчати AI LLM у старих центрах обробки даних неефективно і не швидко. Сервери, необхідні для просунутого ШІ, більш габаритні та більш енергомісткі. Вони оснащені оновленими графічними процесорами, блоками обробки даних та центральними процесорами, об'єднаними в кластери, які можуть складатися із сотень серверів і тисяч графічних процесорів. Такі кластери вирізняються високою щільністю, споживають досить багато енергії та виділяють велику кількість тепла. Загалом, попит на обчислення для навчання LLM значно випереджає можливості центрів обробки даних AI, які галузь стрімко нарощує. Створення якомога більшої кількості потужностей для AI - це тенденція, що буде, як очікується, зберігатися ще щонайменше кілька років.
 
Переміщення LLM ближче до користувача і запуск їх у роботу після навчання називається граничним AI (edge AI) або висновком (inference). Це процес прогону живих даних через навчену AI-модель для складання прогнозу, вирішення завдання або створення контенту. Для того, щоб AI міг трансформувати галузі шляхом підвищення ефективності процесів і автоматизації завдань, на границі необхідно встановити достатню кількість центрів обробки даних. Хоча ці дата-центри зі штучним інтелектом працюватимуть на компактних LLM і матимуть різні розміри та можливості, вони мають бути розміщенні саме на границі. Таким чином буде забезпечено відчутні переваги у вигляді зниження обсягу та вартості передачі даних, підвищення швидкості та зниження затримок. 
 
Майбутнє штучного інтелекту неймовірне і, як очікується, принесе багато користі. Але це не станеться відразу і не може бути втілене в життя без потужних центрів обробки даних. Розвиток AI йде повним ходом, але, правду кажучи, ми перебуваємо на самому початку шляху.  І хоча прогрес AI здається спринтерським, насправді це марафон.

Тенденції розвитку ЦОД в умовах прискорення автоматизації

Проникнення штучного інтелекту в усі індустрії набуває обертів. У міру того, як штучний інтелект переходить від наукової фантастики до реальності, під час цієї останньої та потенційно великої технологічної хвилі відбудеться значна трансформація систем і процесів у всіх галузях.
 
Різниця між AI та попередньою великою технологічною хвилею - Інтернетом - полягає в тому, що останній був пов'язаний з комунікацією та контентом. Хвиля AI більшою мірою пов'язана з тим, що машини починають діяти - створювати, прогнозувати, автоматизувати й оптимізувати.
 
Ми вступаємо на шлях зміни можливостей у немислимому раніше темпі. Але попри весь галас реальність така, що для того, щоб AI став потужнішим, необхідно розгорнути відповідні обчислювальні потужності та забезпечити досить велику пропускну здатність мереж. Багато експертів стверджують, що необхідна широко поширена і доступна архітектура центрів обробки даних. Однак цього замало. Для того, щоб відбулися відчутні зміни, потрібні значні потужності виділених ЦОД, причому ще набагато більше на рівні Edge - ближче до користувачів та даних.
 
Крім того, багато як макро-, так і мікротенденцій впливають на індустрію центрів обробки даних та їх здатність підтримувати AI. Розгляньмо деякі з них.
 
Протягом нинішнього року ми бачимо стале функціонування як основну вимогу до нових потужностей. Щоб отримати дозвіл на будівництво центрів оброблення даних, багато країн або місцеві органи влади вимагають, щоб проєкти ЦОДів були максимально «зеленими», а не тільки ефективними, раціонально витрачали воду і працювали на поновлюваних джерелах енергії. А такі країни, як Німеччина, ще вимагають, щоб певна кількість тепла, що виробляється, використовувалася повторно.
 
Однією з головних проблем, пов'язаних з розширенням потужностей центрів обробки даних, є ймовірний дефіцит електроенергії, що насувається. Потужність центрів обробки даних зростає набагато швидше, ніж збільшується потужність електромереж, серед іншого багато проєктів з відновлюваної енергетики були відкладені через проблеми з ланцюжком постачання, юридичні питання, а також через вартість обладнання. Однак, збільшення потужностей центрів обробки даних не обов'язково повинно бути один в один пов'язане із збільшенням потужності електромереж. Потенційний дефіцит електроенергії очікується лише під час пікових навантажень. Оператори ЦОД будуть більше співпрацювати з місцевими комунальними службами. Великі дата-центри мають кілька джерел живлення та великі резервні потужності. Співпрацюючи з енергетичними компаніями, оператори центрів обробки даних зможуть розвантажити значну частину попиту під час високих потреб на електрику та тепло або охолодження.
 
Питання як залучити більше розподіленої відновлюваної енергії в мережу є трендом сьогодення. Основною перешкодою є те, що більшість країн використовують процеси і програми, розроблені для одного-двох підключень до мережі на рік, а зараз запити на сотні і тисячі розподілених підключень до відновлюваних джерел енергії, і це призводить до довгих черг на підключення на багато років.
 
Після того, як ми отримаємо цю відновлювану енергію в мережі, більшість операторів центрів обробки даних повинні будуть пристосуватися до реальності -  відновлювана енергія має непостійну потужність, пов'язану з тим, коли віє вітер або світить сонце. Енергокомпанії намагатимуться нормалізувати цю проблему за допомогою мережевих акумуляторних батарей. Однак критичні об'єкти, такі як центри обробки даних, потребуватимуть набагато стабільніших рівнів електропостачання. Прогнозується, що оператори дата-центрів почнуть додавати багатогодинне зберігання енергії на місці. Таке зберігання на місці буде корисним не лише для забезпечення стійкості, але й у періоди, коли є надлишок «зеленої» енергії, який оператори центрів обробки даних можуть накопичувати. Таке сховище відновлюваної енергії можна використовувати як екологічну альтернативу генераторам, зменшуючи таким чином викиди вуглекислого газу.
 
Слід відзначити, що в галузі вже давно розширюється використання граничних обчислень, але вони отримають додатковий поштовх у розвитку завдяки необхідності обробки AI-завдань в безпосередній близькості до користувача і отриманих даних. Саме зараз - час автоматизації робочих процесів, коли моделі AI на рівні Edge працюватимуть, щоб зробити наявні системи та процеси ефективнішими в багатьох галузях - наприклад, у транспорті, виробництві та медицині.
 
Ще один тренд - більш активне використання рідинного охолодження. Найближчим часом з'являться сервери з 16 GPU, 2 CPU і безліччю DPU для додатків штучного інтелекту. Таки  системи виділяють занадто багато тепла, щоб його можна було ефективно відводити лише повітряними вентиляторами. 
 
Перспективи штучного інтелекту добре відомі, і потужності центрів обробки даних дійсно сприяють їх реалізації. Наразі ми стаємо свідками того, як з розвитком центрів обробки даних з’являються відповіді на виклики з боку розвитку AI.

Про DCIM у забезпеченні успішної роботи ІТ-директора

Роль директора з інформаційних технологій зазнає сьогодні серйозних змін. ІТ знаходяться в центрі бізнес-стратегії, оскільки цифрові технології  «живлять» і підтримують глобальну економіку. А критичність ІТ у всіх аспектах бізнесу призвела до того, що CIO перестали виконувати лише функції з розгортання, експлуатації і обслуговування ІТ-інфраструктури та зосередилися на стратегічних питаннях бізнесу.

ІТ-директори дедалі частіше отримують провідну роль у просуванні бізнес-інновацій, узгодженні ІТ-проєктів із бізнес-цілями, цифровізації бізнес-операцій та керують програмами зміни корпоративної організації. Таке розширення ролі робить їхню роботу важливішою і складнішою.

Однак не так широко висвітлюється той факт, що традиційна роль CIO з надання ІТ-послуг також стала більш важливою і складною. Зрештою, вплив ІТ-директора на стратегію та реалізацію бізнесу залежить від безперервності надання ІТ-послуг. Тому успіх CIO ґрунтується на міцному фундаменті підтримки надійних, безпечних і стійких ІТ-операцій. Однак в умовах високорозподілених гібридних ІТ-середовищ це стає дедалі складніше.

Сучасне програмне забезпечення для управління інфраструктурою центрів обробки даних (DCIM, Data Center Infrastructure Management), оптимізоване для розподілених середовищ, відіграє важливу роль у підтримці цієї основи для гібридних центрів обробки даних з розподіленою ІТ-інфраструктурою. В інформаційно-аналітичній статті від Schneider Electric «Як сучасне DCIM розв'язує проблеми управління ІТ-директорів у розподілених, гібридних ІТ-середовищах» інфраструктурні системи живлення й охолодження розподілених і периферійних ІТ-установок стійкішими, фізично й кібербезпечнішими, а також екологічнішими.

Традиційна система DCIM була розроблена і використовувалася для моніторингу пристроїв і планування ресурсів ІТ-простору у великих єдиних центрах обробки даних. Але часи управління єдиним ЦОДом підприємства минули. Вимоги бізнесу змушують CIO гібридизувати архітектуру ЦОДів і портфеля ІТ, розміщуючи необхідні потужності не тільки в ЦОДах, а й нарощуючи їх на віддалений об’єктах - іноді з великим розмахом. Крім управління і підтримки стійких і безпечних операцій на всіх цих майданчиках, від ІТ-директорів тепер вимагають звітів про стійкість їхніх ІТ-операцій. Програмні інструменти DCIM розвиваються, щоб CIO та їхні команди операторів могли виконувати свою роботу ефективніше.

Сучасні пропозиції DCIM спрощують процес придбання та розгортання, полегшуючи початок роботи та використання інструменту в розподіленому портфелі ІТ. Єдиний вхід у систему дає змогу переглядати всі об’єкти й активи в сукупності або окремо з будь-якого місця. Обслуговування програмного забезпечення та прошивок пристроїв можна автоматизувати та виконувати на відстані. Ці нові пропозиції спрощують віддалене спостереження за інфраструктурою електроживлення та охолодження для підтримання доступності, розв'язують проблеми безпеки та стійкості.

Пристрої моніторингу довкілля в ЦОДах можуть використовуватися як для виявлення та відстеження температури, вологості, джерел рідини, наявності диму та вібрації, так і, зазвичай, інтегруються з камерами спостереження, дверними датчиками та картами доступу для забезпечення фізичної безпеки віддалених ІТ-установок. Контрольовані та керовані за допомогою програмного забезпечення DCIM, ці пристрої допомагають віддаленим операційним групам відстежувати активність людей навколо критично важливих ІТ, а також умови навколишнього середовища, які також можуть загрожувати стійкості бізнес-операцій. Що стосується кібербезпеки, то сучасні рішення DCIM надають інструменти для забезпечення того, щоб під'єднані до мережі пристрої інфраструктури електроживлення та охолодження не стали мішенню для кібератаки.

Усі ці пристрої, а також сервер і шлюз DCIM мають постійно оновлюватися останніми версіями прошивок і програмних апдейтів. Кіберзлочинці постійно працюють над пошуком вразливостей у наявному коді, щоб зламати пристрої для крадіжки даних, керування пристроями, виклику збоїв тощо. Нові виправлення прошивки та програмного забезпечення усувають помилки та часто відомі вразливості в системі безпеки, забезпечуючи додаткове підвищення продуктивності. Ці оновлення слід встановлювати або застосовувати, щойно вони стають доступними від постачальника. Без ефективного рішення DCIM цей процес вимагає постійної дисципліни та дій з боку операційної команди.

Крім того, функції та параметри безпеки, увімкнені та налаштовані під час початкового встановлення та монтажу, повинні підтримуватися протягом усього терміну служби пристрою інфраструктури, мережевого пристрою або сервера керування/шлюзу. Якщо звести до мінімуму кількість користувачів, які мають право змінювати ці параметри, то це зменшить імовірність внесення ненавмисних або неприпустимих змін. Крім того, ці параметри необхідно регулярно перевіряти, щоб переконатися, що вони залишаються вірно налаштованими з плином часу. Це вимагає додаткової, постійної дисципліни та регулярних дій з боку операційної команди.

Отже Інструменти DCIM з функцією оцінки безпеки можуть значно спростити всю вищеописану роботу принаймні для пристроїв інфраструктури електроживлення та охолодження. Такі інструменти сканують усі під'єднані пристрої в усьому ІТ-портфелі та нададуть звіт, у якому буде вказано застарілі мікропрограми та скомпрометовані налаштування безпеки. Деякі інструменти DCIM також автоматизують оновлення мікропрограмного забезпечення і надають засоби для виконання масових налаштувань параметрів безпеки одразу для декількох пристроїв, що значно спрощує процес.

DCIM можна використовувати для зниження енергоспоживання та підтримки концепції зменшення викидів парникових газів в ІТ-операціях, а також для отримання базової інформації для відстеження та звітності за показниками сталого розвитку. Зниження енергоспоживання може бути досягнуто за допомогою функцій планування та моделювання DCIM. Ці інструменти дають змогу краще узгодити енергоспоживання з ІТ-навантаженням, скорочуючи або відключаючи невикористовувані ресурси інфраструктури. Крім того, програмне забезпечення може підказати, де можна консолідувати ІТ-навантаження, щоб знизити як енергоспоживання ІТ, так і втрати енергії в інфраструктурі, що підтримує. У новому технічному документі описується кілька конкретних прикладів того, як інструменти планування і моделювання DCIM можуть допомогти знизити енергоспоживання.

Підбиваючи підсумок, необхідно зазначити, у міру того, як роль CIO розширюється і вони стають рушійною силою бізнес-стратегії, цифровізації та інновацій, їхня традиційна роль із надання ІТ-послуг залишається вкрай важливою. Однак ця роль стала набагато складнішою, оскільки портфель послуг став більш географічно розподіленим і розподіленим між хмарою, ЦОДом та Edge. Необхідно постійно відстежувати та підтримувати відмовостійкість і безпеку ІТ-систем по всьому портфелю ІТ-активів. Водночас зростає потреба у відстеженні, звітності та підвищенні екологічної стійкості. Функції моніторингу та сповіщення, а також планування і моделювання DCIM вирішують ці завдання і допомагають зробити розподілені, гібридні ІТ стійкішими, безпечнішими та екологічнішими.

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT