`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

«Вентилятор на чипі»

Продуктивність процесорів, що постійно зростає, вимагає все більш ефективних систем охолодження. І особливо гостра така необхідність в ультрамобільних платформах. Саме для них призначений мініатюрний кулер товщиною 1 мм, що забезпечує активне відведення тепла.

Це рішення розробила компанія xMEMS Labs. Воно являє собою повністю кремнієвий активний мікровентилятор для охолодження ультрамобільних пристроїв і розробок наступного покоління в галузі штучного інтелекту (AI). Активний мікровентилятор xMEMS XMC-2400 µCooling має товщину 1 мм і може використовуватися для терморегулювання в смартфонах, планшетах та інших мобільних пристроях з використанням структур п'єзо-мікромашин.
«Вентилятор на чипі»
«Наш революційний дизайн µCooling «вентилятор на чипі» з'явився в критичний момент для мобільних комп'ютерів», - каже Джозеф Цзян (Joseph Jiang), генеральний директор і співзасновник xMEMS. «Управління тепловим режимом в ультрамобільних пристроях, у яких починають працювати ще більш вимогливі до процесорів додатки штучного інтелекту, є серйозною проблемою для виробників і споживачів. До появи XMC-2400 не існувало рішення для активного охолодження, оскільки пристрої були такими маленькими та тонкими».
«Вентилятор на чипі»
Розміри XMC-2400 становлять 9,26x7,6x1,08 мм, а вага - менш ніж 150 міліграмів, що робить його на 96% меншим і легшим, ніж альтернативні рішення з активним охолодженням на основі кремнію. Один чип XMC-2400 може переміщати до 39 см3 повітря на секунду за протитиску 1000 Па. Повністю кремнієве рішення забезпечує надійність напівпровідників, однорідність деталей, високу міцність і відповідає класу захисту IP58.
«Вентилятор на чипі»
xMEMS µCooling базується на тому самому технологічному процесі, що й повно-діапазонний мікродинамік xMEMS Cypress для бездротових навушників ANC in-ear, який запустять у виробництво в другому кварталі 2025 року, і кілька клієнтів уже взяли на себе зобов'язання з випуску цього пристрою.

Компанія xMEMS повідомила про плани представити замовникам зразок мікровентилятора XMC-2400 в 1 кварталі 2025 року.
«Вентилятор на чипі»
«Ми вивели мікродинаміки MEMS на ринок побутової електроніки та за перші 6 місяців 2024 року поставили понад пів мільйона динаміків», - підсумував Джозеф Цзян. «З µCooling ми змінюємо уявлення людей про терморегулювання. XMC-2400 призначений для активного охолодження навіть найменших портативних пристроїв, що дає змогу створювати найтонші, високопродуктивні та готові до роботи зі штучним інтелектом мобільні пристрої. Важко уявити собі завтрашні смартфони та інші тонкі пристрої, що орієнтовані на продуктивність, без технології xMEMS µCooling».

Новий рекорд швидкості заряджання смартфона

Досягнення зафіксовано на демонстрації, організованій Realme - за допомогою технології 320W SuperSonic Charge батарея смартфона повністю поповнила свій заряд за 4 хв 30 секунд.

Як можна побачити в присвяченому цій події відео, за одну хвилину батарея заповнюється на 26%, а для зарядки на 50% потрібно менш як дві хвилини.

Варто зазначити, що представлена Realme технологія зарядки потужністю 320 Вт стала розвитком фірмового рішення попереднього покоління потужністю 300 Вт: вона повністю заряджає батарею місткістю 4000 мАг за 4 хвилини та 55 секунд, а акумулятор на 4400 мАг - менш ніж за 5 хвилин.

Realme заявила, що 320-ватний адаптер живлення називається «Pocket Cannon» і має щільність потужності 3,3 Вт/см3. За розміром він схожий на 240-ватний зарядний пристрій Realme.

Компанія також повідомила, що Power Cannon підтримує основні протоколи зарядки, включно з UFCS (до 320 Вт), PD і SuperVOOC. Крім того, пристрій оснащений двома портами USB-C для одночасної зарядки - 150 Вт для смартфонів Realme і 65 Вт для сумісних ноутбуків.

На цій же демонстрації був представлений і складаний акумулятор місткістю 4420 мАг. Він складається з чотирьох комірок, кожна з яких має товщину менш як 3 мм, і забезпечує 10-відсоткове збільшення місткості порівняно з традиційною конструкцією. Виходячи з цього анонсу можна очікувати, що в лінійці виробника може незабаром з'явитися смартфон, що складається.

На порозі ери ангстремів

Чергове досягнення дослідників засвідчило реальність подальшого зменшення кроку під час виробництва мікроелектроніки до показників, які вимірюються вже не в нанометрах, а в ангстремах. Так бельгійська дослідницька лабораторія imec продемонструвала візерунчасті структури, отримані після опромінення за допомогою EUV-сканера з високою числовою апертурою 0,55NA.

Дослідження, проведене у спільній лабораторії ASML-imec High NA EUV Lithography Lab у Вельдховені (Нідерланди), демонструє життєздатність літографії з високою NA для наступного покоління виробництва чипів з розмірами менш як 2 нм. Машини для EUV-літографії з високим NA, створені компанією ASML, починаючи з TWINSCAN EXE:5000, можуть коштувати сотні мільйонів доларів, і наразі триває дискусія про те, чи може це бути економічно ефективним.
На порозі ери ангстремів
Проєкт показав, що випадкові логічні структури розміром до 9,5 нм (крок 19 нм), випадкові міжцентрові перемички з міжосьовою відстанню 30 нм, двовимірні елементи з кроком 22 нм і специфічне компонування DRAM з кроком P32 нм були надруковані після однієї експозиції. При цьому використовувалися матеріали і базові процеси, які були оптимізовані для High NA EUV в рамках програми imec Advanced Patterning Programme.

Перед опроміненням компанія imec підготувала спеціальні стеки пластин з удосконаленими резистами, підкладками та фотомасками, а також перенесла базові процеси High NA EUV, такі як оптична корекція близькості (OPC), інтегровані технології патернінгу та травлення, на сканер 0,55NA EUV.

Це підтверджує готовність екосистеми до забезпечення можливості одноразової експозиції для літографії з високою роздільною здатністю High NA EUV, повідомляє imec. Компанія ASML вже поставила дві машини з високим NA EUV, а Intel нещодавно розповіла про свій прогрес у використанні цієї технології.

За повідомленням imec, компанія успішно провела одно експозиційну схему випадкових логічних структур зі щільними металевими лініями завтовшки 9,5 нм, що відповідає кроку 19 нм, і досягла розмірів менше ніж 20 нм між вершинами. Випадкові проходи з міжцентровою відстанню 30 нм продемонстрували відмінну точність малюнка та однорідність критичних розмірів. Крім того, двовимірні елементи з кроком P22 нм продемонстрували видатну продуктивність, підкреслюючи потенціал літографії High NA для забезпечення двовимірної маршрутизації.

Крім логічних структур, компанія imec успішно виконала за одну експозицію шаблони, що об'єднують посадковий майданчик вузла зберігання з периферією бітової лінії для DRAM. Це досягнення підкреслює потенціал технології High NA, що дає змогу замінити кілька шарів маски однією експозицією.

"Отримані результати демонструють унікальний потенціал технології High NA EUV, що дає змогу одержувати зображення двовимірних елементів з агресивним масштабом за один відбиток, що підвищує гнучкість проєктування, а також знижує вартість і складність нанесення малюнка. У майбутньому ми розраховуємо надати цінні відомості нашим партнерам з екосистеми патернінгу, підтримуючи їх у подальшому вдосконаленні матеріалів і обладнання для High NA EUV", - сказав Стівен Шир (Steven Scheer), старший віцепрезидент з обчислювальних технологій і систем / масштабування обчислювальних систем в imec.

Люк Ван ден Хове (Luc Van den Hove), президент і генеральний директор imec, додав: "Отримані результати підтверджують давно прогнозовану роздільну здатність літографії High NA EUV, що дає змогу отримувати металеві шари з кроком менше ніж 20 нм за одну експозицію. Таким чином, High NA EUV відіграватиме важливу роль у подальшому масштабуванні розмірів технологій логіки та пам'яті, що є однією з ключових основ для просування дорожніх карт в "ангстремну еру". Ці перші демонстрації стали можливими тільки завдяки створенню спільної лабораторії ASML-imec, що дало змогу нашим партнерам прискорити впровадження літографії High NA у виробництво".

На горизонті суперкомп'ютери покоління post-exascale

Не встигли показники продуктивності суперкомп'ютерів утвердитися на рівні ексафлопсів, як з'явився термін 'post-exascale'. Очікується, що такі системи мають з'явитися вже до початку 2028 року.

Fujitsu повідомила про розробку компанією 2-нм процесора під назвою Monaka для наступного покоління суперкомп'ютера в центрі RIKEN, який замінить систему Fugaku, що стала 2020 року найпотужнішим у світі суперкомп'ютером із 7,6 млн ядер.

А в США Національна лабораторія OakRidge щойно оголосила конкурс на створення OLCF-6 - наступника найпотужнішого нині суперкомп'ютера Summit на платформі AMD. Ще в січні 2024 року ORNL розглядала варіанти модернізації наявної суперкомп'ютерної системи Frontier. Однак відтоді було вирішено створити абсолютно нову систему.

«У найближчі кілька років швидкість генерації даних в експериментальних і обсерваційних установках зросте на порядки завдяки розвитку технології детекторів, впровадженню крайових датчиків та іншим факторам», - кажуть в ORNL. «Водночас наукове моделювання з вищою роздільною здатністю продовжуватиме генерувати набори даних, які зростають із такою ж швидкістю. Суперкомп'ютери нового покоління мають бути сумісні з інтегрованою дослідницькою інфраструктурою (IRI), щоб надати дослідникам можливість об'єднати експериментальний контроль і аналіз масштабних експериментальних наборів даних із симуляцією високої роздільної здатності та/або технологіями AI».

«В умовах, коли світовий попит на AI, аналітику даних і обчислення всіх масштабів зростає експоненціально, використання енергії є одночасно і обмеженням, і рушійною силою місії. Це призвело до нових технологічних розробок у сфері енергоефективних архітектур HPC, включно з AI-прискорювачами, технологіями пам'яті, високошвидкісними міжз'єднаннями, системним програмним забезпеченням та іншими інноваціями. Тому необхідно продовжувати домагатися прогресу і лідирувати в радикальному підвищенні енергоефективності у всій екосистемі».

Summit отримає «значний приріст» продуктивності, особливо в частині енергоспоживання, і буде використовувати нові архітектури, але все ж буде готовий до закінчення власного терміну служби.

Згідно з дорожньою картою процесорів Intel, перші 1-нм пристрої на базі техпроцесу Intel 10A з'являться до кінця 2027 року, хоча технологія 14A-E з низьким енергоспоживанням може виявитися більш відповідною на цьому етапі завдяки використанню RibbonFET або навіть стоїчних транзисторів, а також зворотному поданню живлення для пристроїв із вищою щільністю. Однак ці пристрої майже напевно будуть являти собою складну комбінацію мікросхем.

Аналогічно, чип Monaka забезпечить удвічі більшу продуктивність, порівнюючи з поточним A64FX, за того самого бюджету живлення, що дасть змогу подвоїти продуктивність на рівні чипа. Питання про те, як це перетворити на продуктивність всієї системи, стоїть перед виробниками суперкомп'ютерів, такими як HP Enterprise та її підрозділ Cray, який створював попередні версії.

Таким чином, продуктивність становитиме 2,1 ексафлопса за 32-розрядної точності та частоти 2,2 ГГц з 4,85 PB пам'яті. Але подвоєння продуктивності за вісім років не так вже й вражає.

AMD також, імовірно, перейде на 2-нм техпроцес TSMC зі своїми ядрами Zen6 і 3D-упаковкою.

Новим елементом є штучний інтелект, і це сильно змінює цифри, особливо з огляду на те, що Nvidia домінує в постачанні графічних процесорів, які використовуються для штучного інтелекту в суперкомп'ютерах.

AI - це наростальне робоче навантаження на системи Ок-Рідж. Очікується, що OLCF-6 займатиме передові позиції в підтримці вчених і розробників застосунків, які досліджують та інтегрують трансформаційні технології AI для прискорення відкриттів у галузі науки, енергетики та проблем безпеки, що мають національне значення.

«Ми припускаємо широкий спектр варіантів використання - від зворотного проєктування та управління складними системами, такими як електромережі та ядерні реактори, до генеративного AI та основоположних моделей, що інтегрують текст і зображення, які часто не структуровані, мають високу роздільну здатність і отримані з мультимодальних джерел даних», - ідеться в повідомленні.

Проте, виконання фреймворків і робочих процесів AI висуває нові вимоги до архітектури системи, можливо, вимагаючи більшої пропускної спроможності міжз'єднань і оптимізованого рівня зберігання даних, здатного обробляти дуже високу швидкість операцій введення-виведення (IOPS), орієнтованих на випадкове читання. Це призведе до збільшення обсягу пам'яті та підвищення швидкості міжз'єднань у системних конструкціях. Але це також відкриває дорогу новим архітектурам.

Європейський розробник чипів Tachyum створив універсальний процесор, здатний справлятися з робочими навантаженнями HPC і штучного інтелекту, і отримав замовлення на створення суперкомп'ютерів у США. Випуск 5-нм чіпа Prodigy 1 було відкладено, а Prodigy 2, як очікується, буде побудовано за 3-нм технологічним процесом. В інтересах європейського суверенітету компанія SiPearl розробляє багатоядерний ARM-чіп під назвою Rhea1 для суперкомп'ютерів, які будуть створені у 2025 році. Він буде використовуватися для суперкомп'ютера Jupiter у Німеччині.

Наразі SiPearl розглядає чиплети для збільшення продуктивності, особливо для штучного інтелекту, поряд із кремнієм Rhea1.

Є й інші розробники процесорів для центрів обробки даних, які збираються масштабуватися до суперкомп'ютерів, наприклад, процесори Ampere та Grace від Nvidia, обидва на базі ARM, які були протестовані в лабораторії Wombat при ORNL. Наступне покоління процесора Grace на базі ARM від Nvidia стане серйозним викликом. Цей процесор або, можливо, його наступник буде об'єднаний з графічним процесором Blackwell для створення суперчипа, який конкуруватиме з суперкомп'ютерами наступного покоління.

Як скоро AI PC зможуть виконувати LLM з 30 млрд параметрів?

Технологія штучного інтелекту вже зайняла міцні позиції на ринку ПК, і тепер виробники націлюються не просто на локальне виконання завдань на базі великих мовних моделей, а говорять про можливість комфортної взаємодії з ними, коли затримка відгуку на запит залишається непоміченою.

Так AMD заявила про те, що вже через кілька років на ринок вийдуть портативні комп'ютери, здатні виконувати великі мовні моделі (LLM) з 30 млрд параметрів. Причому це відбуватиметься зі швидкістю 100 токенів на секунду. На думку аналітиків, впоратися з вирішенням такого завдання можна тільки шляхом оптимізації як апаратної, так і програмної складових. Досить нагадати, що за твердженням AMD, її процесори Ryzen AI 300-ї серії Strix Point, анонсовані на виставці Computex 2024, здатні виконувати із 4-бітною точністю LLM до семи мільярдів параметрів за скромної швидкості 20 токенів за секунду та затримки першого токена 1-4 секунди.
Як скоро AI PC зможуть виконувати LLM з 30 млрд параметрів?
Досягнення цільового показника продуктивності «North Star» у 30 млрд параметрів, 100 токенів на секунду - це не просто питання встановлення потужнішого NPU. Більша кількість TOPS або FLOPS, звісно, допоможе - особливо коли йдеться про затримку першого токена, - але коли йдеться про локальне виконання великих мовних моделей, набагато важливішими є обсяг пам'яті та пропускна здатність.

У цьому відношенні продуктивність LLM на Strix Point багато в чому обмежується 128-бітною шиною пам'яті, яка в парі з LPDDR5x забезпечує пропускну спроможність у районі 120-135 ГБ/с залежно від швидкості пам'яті.

Якщо прийняти за чисту монету, то справжня модель із 30 млрд параметрів, квантована до 4 біт, займатиме близько 15 ГБ пам'яті та потребуватиме понад 1,5 ТБ/с пропускної спроможності, щоб досягти мети в 100 токенів на секунду. Для порівняння, це приблизно така сама пропускна здатність, як у карти Nvidia A100 PCIe з HBM2 на 40 ГБ, але потребує набагато більше потужності.

Це означає, що без оптимізацій, які дають змогу зробити модель менш вимогливою, майбутнім SoC від AMD знадобиться набагато швидша і ємніша LPDDR, щоб досягти поставленої розробником чіпа мети.

Махеш Субрамоні (Mahesh Subramony), старший науковий співробітник та інженер із проєктування кремнію, що займається розробкою SoC в AMD, не приховує цих проблем.
«Ми знаємо, як до цього прийти», - сказав Субрамоні, «Але хоча сьогодні можна розробити деталь, здатну досягти цілей AMD, немає особливого сенсу, якщо ніхто не зможе дозволити собі її використовувати або не буде нічого, що могло б скористатися її перевагами. Якщо почати поширення з того, що кожен повинен мати Ferrari, автомобілі не будуть поширюватися. Потрібно почати з того, що кожен отримає чудову машину, а для початку показати, що з нею можна робити відповідально».

«Ми повинні створити SKU, яка відповідатиме вимогам 95% користувачів», - продовжив він. «Я б вважав за краще мати ноутбук за $1300, а потім у хмарі запускати свою модель із 30 млрд параметрів. Сьогодні це все ще дешевше».

Коли справа доходить до демонстрації цінності ПК зі штучним інтелектом, AMD значною мірою спирається на своїх партнерів із програмного забезпечення. У випадку з такими продуктами, як Strix Point, це в основному означає Microsoft. «Коли Strix тільки починався, у нас була глибока співпраця з Microsoft, яка певною мірою визначала наші кордони», - згадує Субрамоні. «Але хоча програмне забезпечення може допомогти визначити напрямок розвитку нового обладнання, на розробку і впровадження нового чіпа можуть піти роки. Ген AI та сценарії використання AI розвиваються набагато швидше».

Минуло два роки з моменту дебюту ChatGPT, щоб простежити його розвиток, і Субрамоні вважає, що AMD тепер краще розуміє, куди рухаються вимоги до обчислень, що, безсумнівно, є однією з причин, чому AMD встановила для себе цю мету.

Існує кілька способів розв'язати проблему пропускної здатності пам'яті. Наприклад, пам'ять LPDDR5 можна замінити на пам'ять із вищою пропускною спроможністю - але, як зазначає Субрамоні, це не зовсім вигідно, оскільки різко збільшить вартість і погіршить енергоспоживання SoC.

«Якщо ми не можемо отримати модель із 30 млрд параметрів, ми повинні бути в змозі отримати щось, що забезпечить таку саму точність. Це означає, що насамперед необхідно буде поліпшити процес навчання, щоб зробити ці моделі меншими», - пояснює Субрамоні. Хороша новина полягає в тому, що існує досить багато способів зробити саме це - залежно від того, що для вас є пріоритетом: пропускна спроможність чи обсяг пам'яті.

Один із можливих підходів - використання моделі суміші експертів (MoE), подібної до Mixtral AI. Такі MoE являють собою набір невеликих моделей, які працюють у зв'язці одна з одною. Зазвичай у пам'ять завантажується повна MoE, але оскільки активна тільки одна підмодель, вимоги до пропускної здатності пам'яті істотно знижуються порівняно з монолітною модельною архітектурою еквівалентного розміру.

MoE, що складається з шести моделей з 5 млрд параметрів, потребуватиме лише трохи більше ніж 250 ГБ/с пропускної спроможності для досягнення мети в 100 токенів за секунду - принаймні, за 4-бітної точності.

Інший підхід полягає у використанні спекулятивного декодування - процесу, за якого невелика легка модель генерує чернетку, яку потім передають більшій моделі для виправлення будь-яких неточностей. В AMD повідомили, що цей підхід дає значний приріст продуктивності, однак він не завжди розв'язує проблему того, що LLM вимагають багато пам'яті.

Більшість сучасних моделей навчаються на типах даних brain float 16 або FP16, що споживає два байти на параметр. Це означає, що для моделі з 30 млрд параметрів потрібно 60 ГБ пам'яті для роботи з власною точністю.

Але оскільки для переважної більшості користувачів це, найімовірніше, недоцільно, нерідко моделі квантуються до 8- або 4-бітної точності. Це знижує точність і збільшує ймовірність галюцинацій, але скорочує обсяг пам'яті на чверть. Як ми розуміємо, саме таким чином AMD вдається змусити модель із сімома мільярдами параметрів працювати зі швидкістю близько 20 токенів на секунду.

Як своєрідний компроміс, починаючи зі Strix Point, NPU XDNA 2 підтримує тип даних Block FP16. Попри назву, він вимагає всього 9 біт на параметр - для цього потрібно взяти вісім значень із комою, що плаває, та використовувати загальну експоненту. За словами AMD, ця форма здатна досягти точності, що практично не відрізняється від рідної FP16, займаючи при цьому лише трохи більше місця, ніж Int8. Що ще більш важливо, формат не вимагає перенавчання моделей для використання його переваг - наявні моделі BF16 і FP16 працюватимуть без кроку квантування. Але якщо середній ноутбук не почне постачатися з 48 ГБ або більше оперативної пам'яті, AMD все одно доведеться шукати кращі способи скоротити обсяг моделі.

Хоча про це не говориться прямо, неважко уявити, що майбутні NPU і/або інтегрована графіка AMD будуть підтримувати менші формати блоків з комою, що плаває, такі як MXFP6 або MXFP4. З цією метою ми вже знаємо, що графічні процесори AMD CDNA для центрів обробки даних підтримують FP8, а CDNA 4 буде підтримувати FP4.

У будь-якому разі, схоже, що в найближчі кілька років апаратне забезпечення ПК зазнає значних змін, оскільки штучний інтелект залишить хмари та оселиться на кінцевих пристроях.

Космічні канали зв'язку як резервні. Як це бачить НАТО

Просто неможливо переоцінити значення широкосмугових каналів зв'язку для сучасного світу. Тому не дивно, що НАТО досліджує можливість резервування прокладених океанським дном кабелів зв'язку за допомогою космічних каналів.

Дослідники зі США, Ісландії, Швеції та Швейцарії працюють із НАТО над створенням системи, яка автоматично перенаправлятиме підводний інтернет-трафік і дані на супутники, якщо зв'язок перерветься внаслідок ворожих дій, стихійного лиха або аварії. Повідомляється, що велика частина інтернет-трафіку НАТО використовує підводні кабелі, і їхнє порушення може призвести до катастрофи, особливо в перші дні будь-якої атаки.

НАТО вже вкладає кошти в захист своїх комунікаційних кабелів, створивши центр, який займається цим завданням відтоді, як у вересні 2022 року внаслідок загадкового вибуху було зруйновано газопровід "Північний потік - 2". Програма НАТО "Наука для миру і безпеки" також виділила понад 400 тис. дол. на проєкт гібридної космічної та підводної архітектури для забезпечення інформаційної безпеки телекомунікацій, або HEIST. Його офіційний запуск відбудеться в Корнелльському університеті в Нью-Йорку наприкінці липня 2024 року.

Цей проєкт реалізується в той час, коли на глобальну стабільність впливають вторгнення Росії в Україну, загроза з боку Китаю щодо Тайваню, а також провокаційні та насильницькі дії в Південно-Східній і Східній Азії. Лідери НАТО стверджують, що Росія наносить на карту найважливіші активи США і ЄС, і побоюються, що підводні кабелі стануть однією з перших цілей під час військової кризи.

Основне завдання HEIST - виявляти порушення в підводних кабелях і автоматизувати перенаправлення даних ними на інші кабелі або через супутник у разі виникнення проблем. Наразі підводні кабельні компанії можуть виявляти порушення у своїй підводній інфраструктурі з точністю до кілометра, але дослідники хочуть зменшити цей показник до метра.

Ця система гарантує, що зв'язок не перерветься, навіть якщо будь-який з європейських підводних кабелів зв'язку буде перерізаний, пошкоджений або переміщений. HEIST також не обмежується військовим застосуванням, оскільки підводні кабелі можуть постраждати від природних явищ, таких як землетруси, або покинутих якорів.

Однак головною турботою НАТО, як і раніше, залишається цілісність внутрішніх комунікацій. "Вам знадобиться три або чотири бомби, щоб просто відрізати Ісландію та її комунікації", - каже професор Бьярні Мар Магнуссон (Bjarni Már Magnússon), який викладає право в ісландському університеті Біфрьост і також бере участь у проєкті HEIST. Ми також можемо згадати, як тисячі модемів Viasat були виведені з ладу в усій Європі, коли російські хакери зламали їх у межах скоординованих зусиль під час свого початкового вторгнення в Україну в лютому 2022 року. HEIST допоможе гарантувати, що навіть якщо той чи інший кабель зв'язку буде скомпрометовано, НАТО однаково зможе функціонувати та координувати свої дії.

Крім захисту надійності своїх комунікацій, НАТО також має турбуватися про безпеку і цілісність цих підводних кабелів. Зрештою, якщо в 1970-х роках США змогли під'єднатися до підводних ліній зв'язку СРСР у рамках операції "Плющеві дзвони", то сьогодні те ж саме можуть зробити росіяни. Навіть якщо повідомлення, що передаються цими кабелями, зазвичай захищені та зашифровані, квантові комп'ютери можуть поставити під загрозу навіть найдосконаліше шифрування.

Операторів закликають до спільного використання бездротової та RAN-інфраструктури

Підвищення енергоефективності - актуальне завдання глобального рівня, яке зачіпає всі напрямки ІКТ-сфери. Тому було цікаво познайомитися з опублікованою Альянсом мобільних мереж наступного покоління (NGMN) новою дорожньою картою щодо зниження енергоспоживання в мобільних мережах з урахуванням впливу на системні архітектури, дизайн пристроїв наступного покоління і штучний інтелект.

У дорожній карті Green Future Networks Roadmap to Energy Efficient Radio Networks від NGNM описано 16 різних методів енергоощадження та інтелектуальних підходів, які наразі використовують або розробляють у галузі, з реальними даними, а також можливості AI для заощадження енергії в специфікаціях 3GPP Release 18 і майбутньої Release 19.
Операторів закликають до спільного використання бездротової та RAN-інфраструктури
Споживання енергії можна знизити шляхом оптимізації технологічних процесів, інженерних та експлуатаційних удосконалень, а також впровадження новітніх технологій у конструкції мікросхем.

Можливість виміряти енергоефективність мережі радіодоступу (RAN) є важливою частиною процесу. Існує два підходи до оцінки обладнання базових станцій у лабораторних умовах: статичне та динамічне вимірювання енергоспоживання.

Кожен із них має своє місце при тестуванні сучасного обладнання, але базова станція може використовуватися в багатьох різних конфігураціях, цілях та умовах. Крім того, для підтримки оптимізації енергоспоживання мережі AI може стати ключовим інструментом для оцінки та прогнозування енергоспоживання за умови обмеження обсягу даних, що збираються і передаються мережею.

Однак використання AI саме по собі вимагає витрат енергії, тому у звіті про енергоефективне радіо організаціям зі стандартизації рекомендується визначити методології передавання та оновлення моделей AI на вузлах, де контролюються конфігурація і параметри мережі.

Зі збільшенням розміру моделей штучного інтелекту у звіті говориться про необхідність коригування складності моделі для мінімізації енергоспоживання, що виникає під час навчання, передачі та виконання моделі.

Оператори також прагнуть інтегрувати нові апаратні та програмні механізми для підтримки моделювання та оптимізації мереж на основі AI. На рівні програмного забезпечення інтеграція нових інтелектуальних рішень може дозволити мережі знизити енергоспоживання завдяки коригуванню доступної місткості мережі відповідно до фактичного навантаження на трафік у кожен конкретний момент часу.

Під час розгортання мережі всередині приміщень пропонується нова технологія енергоощадження, що дає змогу керувати станом кожного радіопристрою (RU), який належить даної комірці, незалежно один від одного та динамічно вимикати підсилювач потужності тих RU, які наразі не підтримують користувацьке з'єднання або передачу даних.

Випробування засвідчили, що це рішення дає змогу домогтися економії енергії на 20% порівняно з постійно ввімкненою мережею. Там, де вимкнення радіокомпонентів неможливе через значне навантаження, RU з інтелектуальним розподілом ресурсів, що знижує потужність передавання завдяки обмеженню спектральної ефективності передавання, може призвести до зниження енергоспоживання RU залежно від навантаження до 30%, не впливаючи на якість обслуговування (QoS).

Це дає змогу рекомендувати організаціям зі стандартизації визначити методологію для належної координації RU, яким доручено реалізувати різні та потенційно конкурентні механізми енергоощадження.

"Зниження енергоспоживання при збереженні продуктивності послуг є одним із ключових завдань галузі, - говорить Араш Ашуріха (Arash Ashouriha), голова ради альянсу NGMN і SVP Group Technology компанії Deutsche Telekom. Програма NGMN "Зелені мережі майбутнього" продовжує надавати галузі цінні практичні рекомендації, об'єднуючи найкращі галузеві знання та формуючи чіткі рекомендації".

Лоран Лебушер (Laurent Leboucher), член ради альянсу NGMN і технічний директор групи Orange, додав: "Пошук шляхів зниження енергоспоживання і досягнення наших кліматичних цілей має величезне значення для галузі. Рішення охоплюють безліч галузей: поліпшення планування і проєктування мереж, вдосконалення управління мережами, застосування штучного інтелекту і машинного навчання, а також розробка і використання нових технологій. Тільки працюючи разом і співпрацюючи в рамках галузевих альянсів, таких як NGMN, ми зможемо досягти цих цілей".

У рамках публікації дорожньої карти енергоефективних радіомереж операторам мобільних мереж рекомендується спільно використовувати бездротову і RAN-інфраструктуру та ресурси мережі для обмеження енергоспоживання і викидів вуглекислого газу. Організаціям, що займаються розробкою стандартів, також рекомендується поліпшити взаємодію між мобільними мережами та постачальниками енергії як метод зниження вуглецевого сліду і витрат при збереженні доступності послуг.

"Зниження енергоспоживання, використання поновлюваних джерел енергії та постійне надання високоякісних послуг мобільного зв'язку є невіддільними наріжними каменями того, як має працювати мобільна індустрія зараз і в майбутньому", - сказав Люк Іббетсон (Luke Ibbetson), член ради NGMN Alliance і голова відділу досліджень і розробок групи компаній Vodafone. "Компанія Vodafone пишається тим, що виступила в якості одного з керівників цієї ініціативи в рамках NGMN, і буде продовжувати активно керувати та підтримувати цю важливу роботу в майбутньому".

Про надійність серверів

Цікаві подробиці розкрила Microsoft про свій проєкт Natick, який передбачав розміщення серверного майданчика під водою.

Нагадаю, що проєкт Natick був реалізований з 2018 до 2020 року, коли спеціально розроблений контейнер був розміщений на дні біля берегів Шотландії. У його рамках досліджувалося широке коло проблем, пов'язаних з ефективністю охолодження та надійністю функціонування серверів у спеціально створених умовах.

Актуальність проблеми охолодження серверів пов'язана з тим, що за оцінкою аналітиків, близько 40% витрат на експлуатацію продуктивних обчислювальних платформ пов'язана з їх охолодженням. А завдяки зануренню у водне середовище зі стабільною температурою це завдання може бути розв’язано більш ефективно.

Другий важливий аспект проєкту Natick – дослідження чинників, що впливають на надійність функціонування серверів. Для цього, крім розміщених під водою платформ, аналогічні були розгорнуті на березі. І виявилося, що з 855 систем, що знаходилися в підводному контейнері, за час експерименту вийшло з ладу лише шість. Для порівняння в контрольній наземній групі зі 135 серверів вийшло з ладу вісім. Таким чином, для підводного майданчика показник відмови становив 0,7% проти 5,9% у контрольній наземній групі.

Така разюча відмінність пояснюється не тільки ефективним охолодженням вмісту підводного контейнера, але й тим, що в ньому було використано герметизацію в інертному азотному середовищі.

За визнанням Ноель Уолш (Noelle Walsh), керівника підрозділу хмарних операцій та інновацій (CO+I) Microsoft, хоча в даний час у компанії немає центрів обробки даних під водою, продовжується використання Project Natick як дослідницької платформи для вивчення, тестування та перевірки нових концепцій надійності та стійкості ЦОДів, наприклад, із зануренням у рідину. «Моя команда працювала над цим, і це спрацювало. Ми дізналися багато нового про операції нижче рівня моря, вібрації та впливи на сервер. Тому ми застосуємо ці знання в інших випадках», - підсумувала Ноель Волш.

Світле майбутнє HDD

Всупереч прогнозам деяких експертів про припинення виходу на ринок нових жорстких дисків уже після 2028 року з'ясувалося, що ці накопичувачі не збираються здавати своїх позицій.

У нещодавно опублікованому звіті Digital Storage Technology Newsletter, підготовленому аналітиками з Coughlin Associates, повідомляється, що немає жодних ознак того, що твердотілі накопичувачі зупинять продажі нових жорстких дисків у найближчому майбутньому. І це при тому, що в останнє десятиліття ринок HDD скорочувався значними темпами.
Світле майбутнє HDD
На наведеній діаграмі видно як під натиском SSD відступали, наприклад, мобільні HDD. Однак з 2018 року намітився новий тренд - nearline HDD формфактора 3,5 дюйма (7200 об/хв) стають дедалі популярнішими для зберігання вторинних даних, які не є критично важливими. До 2024 року на них припадало більш ніж половина всіх постачань жорстких дисків, а до 2029 року, за прогнозами Coughlin Associates, їхня частка перевищить 75%.
Світле майбутнє HDD
Дуже маленькі диски формфактора 1,8 дюйма перестали випускати багато років тому, а на 2,5-дюймові диски 10K, на які 2011 року припадало більш ніж половина постачань накопичувачів, зараз припадає приблизно чверть, і ця частка скорочуватиметься в міру просування до кінця десятиліття, за даними Coughlins Associates.

Але після багаторічного спаду загальна кількість HDD, що поставляються, як очікується, зростатиме з 2025 року, оскільки диски формфактора 3,5 дюйма, тобто nearline HDD, продаватимуться в більшій кількості. На думку аналітиків, їхнє відносно повільне зростання у штучному обчисленні супроводжуватиметься різким збільшенням обсягу постачання, оскільки їхня щільність розміщення - терабайти, що зберігаються на одній пластині, - збільшиться завдяки таким технологіям, як HAMR.
Світле майбутнє HDD
Починаючи з 2023 року крива місткості, що відвантажується, зростає під крутим кутом, оскільки покупці з-поміж гіперскейлерів почали зберігати набагато більше неструктурованих даних, які використовуються в соціальних мережах, загальнокорпоративних і специфічних для AI неструктурованих даних, файлів і об'єктів.
Світле майбутнє HDD
За прогнозами Coughlins Associates, ця тенденція призведе до того, що середня ціна за ГБ для жорстких дисків буде постійно знижуватися і 2024 року перетне позначку в $0,01 за ГБ та продовжить зменшуватися аж до 2029 р. Чистий ефект від зниження ціни за ГБ та збільшення місткості дисків та SSD полягає у тому, що частка дисків у загальному обсязі постачань стрічок + SSD + HDD зростатиме та різко збільшуватиметься в міру просування до 2029 року.

За даними Coughlin Associates, частка SSD зростає, але не такими темпами, як експансія HDD. Тому SSD не будуть конкурувати з HDD для вторинного зберігання даних з урахуванням анонсів HAMR.

Що нового вміє Huawei IdeaHub2?

Компанія Huawei спільно зі своїм партнером MTI познайомили із рішенням IdeaHub2 нового покоління, яке покликане підвищити продуктивність сучасного офісу.

Нагадаю, що в цьому блозі вже розповідалося про платформу IdeaHub, коли вона вперше з'явилася в нашій країні. Тепер, коли вона отримала оновлення, мені довелося коротко познайомитись з нею під час презентації, що відбулася у київському офісі Huawei.

Нагадаю, що за своєю суттю IdeaHub є комп'ютерно-комунікаційною платформою категорії «все в одному», яка побудована на базі великопанельних дисплеїв з діагоналлю від 65 до 86 дюймів. Крім обчислювача до їх складу входить також модуль із камерою для проведення відеоконференцій. Функціональність цих пристроїв дозволяє використовувати їх як інтелектуальні панелі для спільної роботи як в режимі відеоконференції, так і при організації локальних обговорень.
Що нового вміє Huawei IdeaHub2?
Роман Дмуховський продемонстрував режим поділу екрана IdeaHub2

До оновленої лінійки IdeaHub2, доступної в Україні, входить п'ять моделей: IdeaHub B2, IdeaHub B3, IdeaHub S2, IdeaHub ES2, IdeasHub ES2 Plus. Їхня відмінність полягає в оснащеності апаратної платформи, операційною системою, що використовується, та функціональності інтелектуальної панелі. Так у базовій моделі IdeaHub B2 використана ОС Android, тоді як у старших встановлена HarmonyOS, а її вбудована камера працює з роздільною здатністю HD. Зауважу, що в більш розвинених пристроях є камери з підтримкою 1080p та 4K.

Під час презентації було використано модель IdeaHub ES2, з найбільш широкою функціональністю серед наявних у нашій країні. Тому на її прикладі вивчимо, чому новому навчили IdeaHub за більш ніж три роки, що пройшли з моменту її першого виходу на ринок.

Перше, на що звертаєш увагу при знайомстві з цим рішенням – модуль 4K-камери, прикріплений над екраном. Раніше камеру було вбудовано в корпус. Тепер у її конструкції використана система охолодження, завдяки чому не відбувається спотворення кольору, що буває в результаті нагрівання при тривалих відеоконференціях.

Під час проведення відеоконференції за участю кількох людей камера автоматично налаштовує кадрування на тому з учасників, хто в цей час виступає. Точне позиціювання джерела звуку досягається у радіусі 12 метрів завдяки наявності лінійки з 12 мікрофонів. Причому якщо в аудиторії зав'язується полеміка, то на екран може бути виведено дві людини. А якщо кількість тих, хто говорить, більш як двоє, то виконується охоплення всього приміщення.

Не можна не згадати й про таку цікаву функціональність, як віртуальні стіни. Її суть полягає в тому, що лінійка мікрофонів може відсікати шуми, що надходять з-за меж заданої зони. Це може бути корисно, коли відеоконференція проходить в умовах так званого open space або до її учасників входять численні слухачі, які розташувалися навколо активної зони.

Важливим удосконаленням апаратної платформи IdeaHub2 стала поява підтримки Wi-Fi 6. При цьому сам пристрій може бути ролі точки доступу, що дозволяє взаємодіяти з ним безпосередньо. Для цього достатньо використовувати фірмове програмне забезпечення IdeaShare.

Нагадаю, що в IdeaHub2, як і в попередньому поколінні, можна встановлювати модуль із комп'ютером під керуванням Windows. При цьому перемикання між цими платформами організовано досить оперативно. І якщо раніше формат виведення був лише повноекранний, то тепер екран можна розділяти між додатками на дві частини у трьох режимах: 1:1, 2:1 та 1:2. Така функціональність може бути корисною, наприклад, коли в одному вікні йде відеоконференція, а в другому робляться нотатки до неї.

Крім того, навіть у режимі мультидисплейного виводу за участю IdeaHub2, з його екрана можна керувати ноутбуком, з якого ведеться презентація.

За словами Романа Дмуховського, керівника напряму Huawei у компанії MTI, ціни на пристрої лінійки IdeaHub2 лежать у діапазоні від 2 до 10 тис. дол. Це дозволяє підібрати рішення з необхідним співвідношенням вартості до функціональності для широкого спектра замовників, починаючи зі сфери освіти й до великих корпоративних проєктів.

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT