`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Як скоро AI PC зможуть виконувати LLM з 30 млрд параметрів?

Технологія штучного інтелекту вже зайняла міцні позиції на ринку ПК, і тепер виробники націлюються не просто на локальне виконання завдань на базі великих мовних моделей, а говорять про можливість комфортної взаємодії з ними, коли затримка відгуку на запит залишається непоміченою.

Так AMD заявила про те, що вже через кілька років на ринок вийдуть портативні комп'ютери, здатні виконувати великі мовні моделі (LLM) з 30 млрд параметрів. Причому це відбуватиметься зі швидкістю 100 токенів на секунду. На думку аналітиків, впоратися з вирішенням такого завдання можна тільки шляхом оптимізації як апаратної, так і програмної складових. Досить нагадати, що за твердженням AMD, її процесори Ryzen AI 300-ї серії Strix Point, анонсовані на виставці Computex 2024, здатні виконувати із 4-бітною точністю LLM до семи мільярдів параметрів за скромної швидкості 20 токенів за секунду та затримки першого токена 1-4 секунди.
Як скоро AI PC зможуть виконувати LLM з 30 млрд параметрів?
Досягнення цільового показника продуктивності «North Star» у 30 млрд параметрів, 100 токенів на секунду - це не просто питання встановлення потужнішого NPU. Більша кількість TOPS або FLOPS, звісно, допоможе - особливо коли йдеться про затримку першого токена, - але коли йдеться про локальне виконання великих мовних моделей, набагато важливішими є обсяг пам'яті та пропускна здатність.

У цьому відношенні продуктивність LLM на Strix Point багато в чому обмежується 128-бітною шиною пам'яті, яка в парі з LPDDR5x забезпечує пропускну спроможність у районі 120-135 ГБ/с залежно від швидкості пам'яті.

Якщо прийняти за чисту монету, то справжня модель із 30 млрд параметрів, квантована до 4 біт, займатиме близько 15 ГБ пам'яті та потребуватиме понад 1,5 ТБ/с пропускної спроможності, щоб досягти мети в 100 токенів на секунду. Для порівняння, це приблизно така сама пропускна здатність, як у карти Nvidia A100 PCIe з HBM2 на 40 ГБ, але потребує набагато більше потужності.

Це означає, що без оптимізацій, які дають змогу зробити модель менш вимогливою, майбутнім SoC від AMD знадобиться набагато швидша і ємніша LPDDR, щоб досягти поставленої розробником чіпа мети.

Махеш Субрамоні (Mahesh Subramony), старший науковий співробітник та інженер із проєктування кремнію, що займається розробкою SoC в AMD, не приховує цих проблем.
«Ми знаємо, як до цього прийти», - сказав Субрамоні, «Але хоча сьогодні можна розробити деталь, здатну досягти цілей AMD, немає особливого сенсу, якщо ніхто не зможе дозволити собі її використовувати або не буде нічого, що могло б скористатися її перевагами. Якщо почати поширення з того, що кожен повинен мати Ferrari, автомобілі не будуть поширюватися. Потрібно почати з того, що кожен отримає чудову машину, а для початку показати, що з нею можна робити відповідально».

«Ми повинні створити SKU, яка відповідатиме вимогам 95% користувачів», - продовжив він. «Я б вважав за краще мати ноутбук за $1300, а потім у хмарі запускати свою модель із 30 млрд параметрів. Сьогодні це все ще дешевше».

Коли справа доходить до демонстрації цінності ПК зі штучним інтелектом, AMD значною мірою спирається на своїх партнерів із програмного забезпечення. У випадку з такими продуктами, як Strix Point, це в основному означає Microsoft. «Коли Strix тільки починався, у нас була глибока співпраця з Microsoft, яка певною мірою визначала наші кордони», - згадує Субрамоні. «Але хоча програмне забезпечення може допомогти визначити напрямок розвитку нового обладнання, на розробку і впровадження нового чіпа можуть піти роки. Ген AI та сценарії використання AI розвиваються набагато швидше».

Минуло два роки з моменту дебюту ChatGPT, щоб простежити його розвиток, і Субрамоні вважає, що AMD тепер краще розуміє, куди рухаються вимоги до обчислень, що, безсумнівно, є однією з причин, чому AMD встановила для себе цю мету.

Існує кілька способів розв'язати проблему пропускної здатності пам'яті. Наприклад, пам'ять LPDDR5 можна замінити на пам'ять із вищою пропускною спроможністю - але, як зазначає Субрамоні, це не зовсім вигідно, оскільки різко збільшить вартість і погіршить енергоспоживання SoC.

«Якщо ми не можемо отримати модель із 30 млрд параметрів, ми повинні бути в змозі отримати щось, що забезпечить таку саму точність. Це означає, що насамперед необхідно буде поліпшити процес навчання, щоб зробити ці моделі меншими», - пояснює Субрамоні. Хороша новина полягає в тому, що існує досить багато способів зробити саме це - залежно від того, що для вас є пріоритетом: пропускна спроможність чи обсяг пам'яті.

Один із можливих підходів - використання моделі суміші експертів (MoE), подібної до Mixtral AI. Такі MoE являють собою набір невеликих моделей, які працюють у зв'язці одна з одною. Зазвичай у пам'ять завантажується повна MoE, але оскільки активна тільки одна підмодель, вимоги до пропускної здатності пам'яті істотно знижуються порівняно з монолітною модельною архітектурою еквівалентного розміру.

MoE, що складається з шести моделей з 5 млрд параметрів, потребуватиме лише трохи більше ніж 250 ГБ/с пропускної спроможності для досягнення мети в 100 токенів за секунду - принаймні, за 4-бітної точності.

Інший підхід полягає у використанні спекулятивного декодування - процесу, за якого невелика легка модель генерує чернетку, яку потім передають більшій моделі для виправлення будь-яких неточностей. В AMD повідомили, що цей підхід дає значний приріст продуктивності, однак він не завжди розв'язує проблему того, що LLM вимагають багато пам'яті.

Більшість сучасних моделей навчаються на типах даних brain float 16 або FP16, що споживає два байти на параметр. Це означає, що для моделі з 30 млрд параметрів потрібно 60 ГБ пам'яті для роботи з власною точністю.

Але оскільки для переважної більшості користувачів це, найімовірніше, недоцільно, нерідко моделі квантуються до 8- або 4-бітної точності. Це знижує точність і збільшує ймовірність галюцинацій, але скорочує обсяг пам'яті на чверть. Як ми розуміємо, саме таким чином AMD вдається змусити модель із сімома мільярдами параметрів працювати зі швидкістю близько 20 токенів на секунду.

Як своєрідний компроміс, починаючи зі Strix Point, NPU XDNA 2 підтримує тип даних Block FP16. Попри назву, він вимагає всього 9 біт на параметр - для цього потрібно взяти вісім значень із комою, що плаває, та використовувати загальну експоненту. За словами AMD, ця форма здатна досягти точності, що практично не відрізняється від рідної FP16, займаючи при цьому лише трохи більше місця, ніж Int8. Що ще більш важливо, формат не вимагає перенавчання моделей для використання його переваг - наявні моделі BF16 і FP16 працюватимуть без кроку квантування. Але якщо середній ноутбук не почне постачатися з 48 ГБ або більше оперативної пам'яті, AMD все одно доведеться шукати кращі способи скоротити обсяг моделі.

Хоча про це не говориться прямо, неважко уявити, що майбутні NPU і/або інтегрована графіка AMD будуть підтримувати менші формати блоків з комою, що плаває, такі як MXFP6 або MXFP4. З цією метою ми вже знаємо, що графічні процесори AMD CDNA для центрів обробки даних підтримують FP8, а CDNA 4 буде підтримувати FP4.

У будь-якому разі, схоже, що в найближчі кілька років апаратне забезпечення ПК зазнає значних змін, оскільки штучний інтелект залишить хмари та оселиться на кінцевих пристроях.

Космічні канали зв'язку як резервні. Як це бачить НАТО

Просто неможливо переоцінити значення широкосмугових каналів зв'язку для сучасного світу. Тому не дивно, що НАТО досліджує можливість резервування прокладених океанським дном кабелів зв'язку за допомогою космічних каналів.

Дослідники зі США, Ісландії, Швеції та Швейцарії працюють із НАТО над створенням системи, яка автоматично перенаправлятиме підводний інтернет-трафік і дані на супутники, якщо зв'язок перерветься внаслідок ворожих дій, стихійного лиха або аварії. Повідомляється, що велика частина інтернет-трафіку НАТО використовує підводні кабелі, і їхнє порушення може призвести до катастрофи, особливо в перші дні будь-якої атаки.

НАТО вже вкладає кошти в захист своїх комунікаційних кабелів, створивши центр, який займається цим завданням відтоді, як у вересні 2022 року внаслідок загадкового вибуху було зруйновано газопровід "Північний потік - 2". Програма НАТО "Наука для миру і безпеки" також виділила понад 400 тис. дол. на проєкт гібридної космічної та підводної архітектури для забезпечення інформаційної безпеки телекомунікацій, або HEIST. Його офіційний запуск відбудеться в Корнелльському університеті в Нью-Йорку наприкінці липня 2024 року.

Цей проєкт реалізується в той час, коли на глобальну стабільність впливають вторгнення Росії в Україну, загроза з боку Китаю щодо Тайваню, а також провокаційні та насильницькі дії в Південно-Східній і Східній Азії. Лідери НАТО стверджують, що Росія наносить на карту найважливіші активи США і ЄС, і побоюються, що підводні кабелі стануть однією з перших цілей під час військової кризи.

Основне завдання HEIST - виявляти порушення в підводних кабелях і автоматизувати перенаправлення даних ними на інші кабелі або через супутник у разі виникнення проблем. Наразі підводні кабельні компанії можуть виявляти порушення у своїй підводній інфраструктурі з точністю до кілометра, але дослідники хочуть зменшити цей показник до метра.

Ця система гарантує, що зв'язок не перерветься, навіть якщо будь-який з європейських підводних кабелів зв'язку буде перерізаний, пошкоджений або переміщений. HEIST також не обмежується військовим застосуванням, оскільки підводні кабелі можуть постраждати від природних явищ, таких як землетруси, або покинутих якорів.

Однак головною турботою НАТО, як і раніше, залишається цілісність внутрішніх комунікацій. "Вам знадобиться три або чотири бомби, щоб просто відрізати Ісландію та її комунікації", - каже професор Бьярні Мар Магнуссон (Bjarni Már Magnússon), який викладає право в ісландському університеті Біфрьост і також бере участь у проєкті HEIST. Ми також можемо згадати, як тисячі модемів Viasat були виведені з ладу в усій Європі, коли російські хакери зламали їх у межах скоординованих зусиль під час свого початкового вторгнення в Україну в лютому 2022 року. HEIST допоможе гарантувати, що навіть якщо той чи інший кабель зв'язку буде скомпрометовано, НАТО однаково зможе функціонувати та координувати свої дії.

Крім захисту надійності своїх комунікацій, НАТО також має турбуватися про безпеку і цілісність цих підводних кабелів. Зрештою, якщо в 1970-х роках США змогли під'єднатися до підводних ліній зв'язку СРСР у рамках операції "Плющеві дзвони", то сьогодні те ж саме можуть зробити росіяни. Навіть якщо повідомлення, що передаються цими кабелями, зазвичай захищені та зашифровані, квантові комп'ютери можуть поставити під загрозу навіть найдосконаліше шифрування.

Операторів закликають до спільного використання бездротової та RAN-інфраструктури

Підвищення енергоефективності - актуальне завдання глобального рівня, яке зачіпає всі напрямки ІКТ-сфери. Тому було цікаво познайомитися з опублікованою Альянсом мобільних мереж наступного покоління (NGMN) новою дорожньою картою щодо зниження енергоспоживання в мобільних мережах з урахуванням впливу на системні архітектури, дизайн пристроїв наступного покоління і штучний інтелект.

У дорожній карті Green Future Networks Roadmap to Energy Efficient Radio Networks від NGNM описано 16 різних методів енергоощадження та інтелектуальних підходів, які наразі використовують або розробляють у галузі, з реальними даними, а також можливості AI для заощадження енергії в специфікаціях 3GPP Release 18 і майбутньої Release 19.
Операторів закликають до спільного використання бездротової та RAN-інфраструктури
Споживання енергії можна знизити шляхом оптимізації технологічних процесів, інженерних та експлуатаційних удосконалень, а також впровадження новітніх технологій у конструкції мікросхем.

Можливість виміряти енергоефективність мережі радіодоступу (RAN) є важливою частиною процесу. Існує два підходи до оцінки обладнання базових станцій у лабораторних умовах: статичне та динамічне вимірювання енергоспоживання.

Кожен із них має своє місце при тестуванні сучасного обладнання, але базова станція може використовуватися в багатьох різних конфігураціях, цілях та умовах. Крім того, для підтримки оптимізації енергоспоживання мережі AI може стати ключовим інструментом для оцінки та прогнозування енергоспоживання за умови обмеження обсягу даних, що збираються і передаються мережею.

Однак використання AI саме по собі вимагає витрат енергії, тому у звіті про енергоефективне радіо організаціям зі стандартизації рекомендується визначити методології передавання та оновлення моделей AI на вузлах, де контролюються конфігурація і параметри мережі.

Зі збільшенням розміру моделей штучного інтелекту у звіті говориться про необхідність коригування складності моделі для мінімізації енергоспоживання, що виникає під час навчання, передачі та виконання моделі.

Оператори також прагнуть інтегрувати нові апаратні та програмні механізми для підтримки моделювання та оптимізації мереж на основі AI. На рівні програмного забезпечення інтеграція нових інтелектуальних рішень може дозволити мережі знизити енергоспоживання завдяки коригуванню доступної місткості мережі відповідно до фактичного навантаження на трафік у кожен конкретний момент часу.

Під час розгортання мережі всередині приміщень пропонується нова технологія енергоощадження, що дає змогу керувати станом кожного радіопристрою (RU), який належить даної комірці, незалежно один від одного та динамічно вимикати підсилювач потужності тих RU, які наразі не підтримують користувацьке з'єднання або передачу даних.

Випробування засвідчили, що це рішення дає змогу домогтися економії енергії на 20% порівняно з постійно ввімкненою мережею. Там, де вимкнення радіокомпонентів неможливе через значне навантаження, RU з інтелектуальним розподілом ресурсів, що знижує потужність передавання завдяки обмеженню спектральної ефективності передавання, може призвести до зниження енергоспоживання RU залежно від навантаження до 30%, не впливаючи на якість обслуговування (QoS).

Це дає змогу рекомендувати організаціям зі стандартизації визначити методологію для належної координації RU, яким доручено реалізувати різні та потенційно конкурентні механізми енергоощадження.

"Зниження енергоспоживання при збереженні продуктивності послуг є одним із ключових завдань галузі, - говорить Араш Ашуріха (Arash Ashouriha), голова ради альянсу NGMN і SVP Group Technology компанії Deutsche Telekom. Програма NGMN "Зелені мережі майбутнього" продовжує надавати галузі цінні практичні рекомендації, об'єднуючи найкращі галузеві знання та формуючи чіткі рекомендації".

Лоран Лебушер (Laurent Leboucher), член ради альянсу NGMN і технічний директор групи Orange, додав: "Пошук шляхів зниження енергоспоживання і досягнення наших кліматичних цілей має величезне значення для галузі. Рішення охоплюють безліч галузей: поліпшення планування і проєктування мереж, вдосконалення управління мережами, застосування штучного інтелекту і машинного навчання, а також розробка і використання нових технологій. Тільки працюючи разом і співпрацюючи в рамках галузевих альянсів, таких як NGMN, ми зможемо досягти цих цілей".

У рамках публікації дорожньої карти енергоефективних радіомереж операторам мобільних мереж рекомендується спільно використовувати бездротову і RAN-інфраструктуру та ресурси мережі для обмеження енергоспоживання і викидів вуглекислого газу. Організаціям, що займаються розробкою стандартів, також рекомендується поліпшити взаємодію між мобільними мережами та постачальниками енергії як метод зниження вуглецевого сліду і витрат при збереженні доступності послуг.

"Зниження енергоспоживання, використання поновлюваних джерел енергії та постійне надання високоякісних послуг мобільного зв'язку є невіддільними наріжними каменями того, як має працювати мобільна індустрія зараз і в майбутньому", - сказав Люк Іббетсон (Luke Ibbetson), член ради NGMN Alliance і голова відділу досліджень і розробок групи компаній Vodafone. "Компанія Vodafone пишається тим, що виступила в якості одного з керівників цієї ініціативи в рамках NGMN, і буде продовжувати активно керувати та підтримувати цю важливу роботу в майбутньому".

Про надійність серверів

Цікаві подробиці розкрила Microsoft про свій проєкт Natick, який передбачав розміщення серверного майданчика під водою.

Нагадаю, що проєкт Natick був реалізований з 2018 до 2020 року, коли спеціально розроблений контейнер був розміщений на дні біля берегів Шотландії. У його рамках досліджувалося широке коло проблем, пов'язаних з ефективністю охолодження та надійністю функціонування серверів у спеціально створених умовах.

Актуальність проблеми охолодження серверів пов'язана з тим, що за оцінкою аналітиків, близько 40% витрат на експлуатацію продуктивних обчислювальних платформ пов'язана з їх охолодженням. А завдяки зануренню у водне середовище зі стабільною температурою це завдання може бути розв’язано більш ефективно.

Другий важливий аспект проєкту Natick – дослідження чинників, що впливають на надійність функціонування серверів. Для цього, крім розміщених під водою платформ, аналогічні були розгорнуті на березі. І виявилося, що з 855 систем, що знаходилися в підводному контейнері, за час експерименту вийшло з ладу лише шість. Для порівняння в контрольній наземній групі зі 135 серверів вийшло з ладу вісім. Таким чином, для підводного майданчика показник відмови становив 0,7% проти 5,9% у контрольній наземній групі.

Така разюча відмінність пояснюється не тільки ефективним охолодженням вмісту підводного контейнера, але й тим, що в ньому було використано герметизацію в інертному азотному середовищі.

За визнанням Ноель Уолш (Noelle Walsh), керівника підрозділу хмарних операцій та інновацій (CO+I) Microsoft, хоча в даний час у компанії немає центрів обробки даних під водою, продовжується використання Project Natick як дослідницької платформи для вивчення, тестування та перевірки нових концепцій надійності та стійкості ЦОДів, наприклад, із зануренням у рідину. «Моя команда працювала над цим, і це спрацювало. Ми дізналися багато нового про операції нижче рівня моря, вібрації та впливи на сервер. Тому ми застосуємо ці знання в інших випадках», - підсумувала Ноель Волш.

Світле майбутнє HDD

Всупереч прогнозам деяких експертів про припинення виходу на ринок нових жорстких дисків уже після 2028 року з'ясувалося, що ці накопичувачі не збираються здавати своїх позицій.

У нещодавно опублікованому звіті Digital Storage Technology Newsletter, підготовленому аналітиками з Coughlin Associates, повідомляється, що немає жодних ознак того, що твердотілі накопичувачі зупинять продажі нових жорстких дисків у найближчому майбутньому. І це при тому, що в останнє десятиліття ринок HDD скорочувався значними темпами.
Світле майбутнє HDD
На наведеній діаграмі видно як під натиском SSD відступали, наприклад, мобільні HDD. Однак з 2018 року намітився новий тренд - nearline HDD формфактора 3,5 дюйма (7200 об/хв) стають дедалі популярнішими для зберігання вторинних даних, які не є критично важливими. До 2024 року на них припадало більш ніж половина всіх постачань жорстких дисків, а до 2029 року, за прогнозами Coughlin Associates, їхня частка перевищить 75%.
Світле майбутнє HDD
Дуже маленькі диски формфактора 1,8 дюйма перестали випускати багато років тому, а на 2,5-дюймові диски 10K, на які 2011 року припадало більш ніж половина постачань накопичувачів, зараз припадає приблизно чверть, і ця частка скорочуватиметься в міру просування до кінця десятиліття, за даними Coughlins Associates.

Але після багаторічного спаду загальна кількість HDD, що поставляються, як очікується, зростатиме з 2025 року, оскільки диски формфактора 3,5 дюйма, тобто nearline HDD, продаватимуться в більшій кількості. На думку аналітиків, їхнє відносно повільне зростання у штучному обчисленні супроводжуватиметься різким збільшенням обсягу постачання, оскільки їхня щільність розміщення - терабайти, що зберігаються на одній пластині, - збільшиться завдяки таким технологіям, як HAMR.
Світле майбутнє HDD
Починаючи з 2023 року крива місткості, що відвантажується, зростає під крутим кутом, оскільки покупці з-поміж гіперскейлерів почали зберігати набагато більше неструктурованих даних, які використовуються в соціальних мережах, загальнокорпоративних і специфічних для AI неструктурованих даних, файлів і об'єктів.
Світле майбутнє HDD
За прогнозами Coughlins Associates, ця тенденція призведе до того, що середня ціна за ГБ для жорстких дисків буде постійно знижуватися і 2024 року перетне позначку в $0,01 за ГБ та продовжить зменшуватися аж до 2029 р. Чистий ефект від зниження ціни за ГБ та збільшення місткості дисків та SSD полягає у тому, що частка дисків у загальному обсязі постачань стрічок + SSD + HDD зростатиме та різко збільшуватиметься в міру просування до 2029 року.

За даними Coughlin Associates, частка SSD зростає, але не такими темпами, як експансія HDD. Тому SSD не будуть конкурувати з HDD для вторинного зберігання даних з урахуванням анонсів HAMR.

Що нового вміє Huawei IdeaHub2?

Компанія Huawei спільно зі своїм партнером MTI познайомили із рішенням IdeaHub2 нового покоління, яке покликане підвищити продуктивність сучасного офісу.

Нагадаю, що в цьому блозі вже розповідалося про платформу IdeaHub, коли вона вперше з'явилася в нашій країні. Тепер, коли вона отримала оновлення, мені довелося коротко познайомитись з нею під час презентації, що відбулася у київському офісі Huawei.

Нагадаю, що за своєю суттю IdeaHub є комп'ютерно-комунікаційною платформою категорії «все в одному», яка побудована на базі великопанельних дисплеїв з діагоналлю від 65 до 86 дюймів. Крім обчислювача до їх складу входить також модуль із камерою для проведення відеоконференцій. Функціональність цих пристроїв дозволяє використовувати їх як інтелектуальні панелі для спільної роботи як в режимі відеоконференції, так і при організації локальних обговорень.
Що нового вміє Huawei IdeaHub2?
Роман Дмуховський продемонстрував режим поділу екрана IdeaHub2

До оновленої лінійки IdeaHub2, доступної в Україні, входить п'ять моделей: IdeaHub B2, IdeaHub B3, IdeaHub S2, IdeaHub ES2, IdeasHub ES2 Plus. Їхня відмінність полягає в оснащеності апаратної платформи, операційною системою, що використовується, та функціональності інтелектуальної панелі. Так у базовій моделі IdeaHub B2 використана ОС Android, тоді як у старших встановлена HarmonyOS, а її вбудована камера працює з роздільною здатністю HD. Зауважу, що в більш розвинених пристроях є камери з підтримкою 1080p та 4K.

Під час презентації було використано модель IdeaHub ES2, з найбільш широкою функціональністю серед наявних у нашій країні. Тому на її прикладі вивчимо, чому новому навчили IdeaHub за більш ніж три роки, що пройшли з моменту її першого виходу на ринок.

Перше, на що звертаєш увагу при знайомстві з цим рішенням – модуль 4K-камери, прикріплений над екраном. Раніше камеру було вбудовано в корпус. Тепер у її конструкції використана система охолодження, завдяки чому не відбувається спотворення кольору, що буває в результаті нагрівання при тривалих відеоконференціях.

Під час проведення відеоконференції за участю кількох людей камера автоматично налаштовує кадрування на тому з учасників, хто в цей час виступає. Точне позиціювання джерела звуку досягається у радіусі 12 метрів завдяки наявності лінійки з 12 мікрофонів. Причому якщо в аудиторії зав'язується полеміка, то на екран може бути виведено дві людини. А якщо кількість тих, хто говорить, більш як двоє, то виконується охоплення всього приміщення.

Не можна не згадати й про таку цікаву функціональність, як віртуальні стіни. Її суть полягає в тому, що лінійка мікрофонів може відсікати шуми, що надходять з-за меж заданої зони. Це може бути корисно, коли відеоконференція проходить в умовах так званого open space або до її учасників входять численні слухачі, які розташувалися навколо активної зони.

Важливим удосконаленням апаратної платформи IdeaHub2 стала поява підтримки Wi-Fi 6. При цьому сам пристрій може бути ролі точки доступу, що дозволяє взаємодіяти з ним безпосередньо. Для цього достатньо використовувати фірмове програмне забезпечення IdeaShare.

Нагадаю, що в IdeaHub2, як і в попередньому поколінні, можна встановлювати модуль із комп'ютером під керуванням Windows. При цьому перемикання між цими платформами організовано досить оперативно. І якщо раніше формат виведення був лише повноекранний, то тепер екран можна розділяти між додатками на дві частини у трьох режимах: 1:1, 2:1 та 1:2. Така функціональність може бути корисною, наприклад, коли в одному вікні йде відеоконференція, а в другому робляться нотатки до неї.

Крім того, навіть у режимі мультидисплейного виводу за участю IdeaHub2, з його екрана можна керувати ноутбуком, з якого ведеться презентація.

За словами Романа Дмуховського, керівника напряму Huawei у компанії MTI, ціни на пристрої лінійки IdeaHub2 лежать у діапазоні від 2 до 10 тис. дол. Це дозволяє підібрати рішення з необхідним співвідношенням вартості до функціональності для широкого спектра замовників, починаючи зі сфери освіти й до великих корпоративних проєктів.

Енергоефективність AI-процесора збільшена на два порядки

Такого результату вдалося досягти команді розробників Efficient Computer за допомогою нового підходу до створення архітектури обчислювача.

З цим рішенням познайомив Брендон Люсія, генеральний директор та засновник компанії, який пояснив, що код працює на фабриці, яка є спеціальним потоком даних, оптимізованим для енергоефективності, і може запускати конвеєр DSP зі швидкістю 1,3 TOPS/Вт для периферійного AI. Він заснований на серії з 256 плиток як обробний елемент, кожна з яких має DSP і логіку для виконання однієї інструкції.
Енергоефективність AI-процесора збільшена на два порядки
Що фундаментально відрізняється, так це те, що архітектура була розроблена з використанням компілятора та програмного стека одночасно на основі досліджень у Карнегі-Меллоні, та її проєктування велося з урахуванням універсальності.

Компілятор генерує подання потоку даних та поміщає інструкції в ефективну мережу на кристалі. Ядро RISC-V налаштовує структуру, а потім відключається, залишаючи плитки працювати, хоча структура може переконфігуруватися як процесор загального призначення, що може працювати з C, C++ або Rust, а також з приграничними платформами штучного інтелекту і платформами, що потенційно трансформують.

"Нам не потрібен потік регістрів і не потрібно виконувати вибірку інструкцій у кожному циклі", - сказав Брендон Люсія. "Підмножина плиток також є плитками доступу до пам'яті - це ефективний спосіб структурування пам'яті".

«Наш підхід охоплює апаратне та програмне забезпечення, і це єдиний шлях до ефективності. Замість виконання серії інструкцій, як у конструкції фон Неймана, наша архітектура репрезентує програми як «схему» інструкцій, яка показує, які інструкції взаємодіють одна з одною. Ця модель дозволяє нам просторово розмістити схему на масиві надзвичайно простих процесорів і виконувати програму паралельно, використовуючи набагато простіше обладнання (і, отже, менше енергії), ніж будь-який наявний процесор», — зазначив Брендон Люсія. Ми називаємо цю конструкцію процесорною архітектурою Fabric і реалізували її в тестовій системі на кристалі Monza. Компілятор Fabric із самого початку розроблявся разом з апаратним забезпеченням та компілює програми, написані на C або C++ високого рівня».

Перший чіп забезпечує питому продуктивність від 1,3 до 1,5 TOPS/Вт, що від 500 до 600 мВт для чіпа. Якщо використовувати менше процесорних елементів, знижується й потужність, тому є можливість оптимізувати потужність і продуктивність за допомогою компілятора.

«Сьогоднішні комп'ютери дуже неефективні. Конструкція процесора "фон Неймана", що домінує, витрачає даремно 99% енергії. На жаль, ця неефективність глибоко закладена у їхньому дизайні. У процесорах фон Неймана програми виражаються як послідовності простих інструкцій, але виконання програм у простій послідовності відбувається неприйнятно повільно. Для підвищення продуктивності потрібне складне обладнання для пошуку інструкцій, які можна безпечно виконувати паралельно», - наголосив Брендон Люсія.

Підвищення ефективності потребує фундаментального переосмислення того, як проєктуються комп'ютери. Існує підхід розв'язання цієї проблеми шляхом обмеження програм, тобто обмеживши процесор запуском лише тих додатків, у яких легко знайти паралелізм. Ці обмеження дозволяють розробникам спрощувати та спеціалізувати апаратне забезпечення. Хоча цей підхід підвищує ефективність, він цурається можливості програмування загального призначення, що є величезною проблемою.

Спільність – це ефективність: будь-яка частина програми, яка працює неефективно, швидко обмежує енергоефективність усієї системи. Щобільше, ці спеціалізовані процесори ігнорують програмне забезпечення, де полягає реальна цінність обчислень.

Зараз компілятор підтримує TensorFLowLite для машинного навчання і в планах підтримка формату платформи AI ONNX. Він побудований на багаторівневому проміжному уявленні (MLIR), розробленому як частину роботи компілятора LLVM для забезпечення гнучкості.

Розробники Efficient Computer створили компілятор на основі стека компіляторів MLIR, тому можна безпосередньо брати наявний потік TensorFlow і оптимізувати його для структури - це дійсно потужно, оскільки можна використовувати проміжні мови, такі як Rust, і підтримуватиметься не тільки він, але також Python і Matlab.

«Заглядаючи у майбутнє, ми маємо план масштабування архітектури, оскільки займаємося дослідженням космосу. На початку 2025 року ми зможемо досягти швидкості 100 GOPS на частоті 200 МГц і думаємо, що зможемо збільшити продуктивність у 10–100 разів із тією самою ефективністю. Частина цього дослідження також розглядає конструкції трансформаторів додатків штучного інтелекту з низьким енергоспоживанням. Якщо є трансформатор, який міститься на згадку, ми можемо запустити його, це дуже цікаво», — підсумував Брендон Люсія.

Варто зазначити, що ще в березні компанія Efficient Computer залучила 16 млн дол. для наступного етапу розвитку.

Сонячна батарея може забезпечити політ дрона

Автономність дронів може бути істотно поліпшена завдяки використанню нового типу сонячних батарей.

Про цю розробку дослідники з Університету Йоганна Кеплера в Лінці розповіли в публікації в журналі nature energy. Ключовою особливістю представленого ними рішення стала рекордно висока питома ефективність сонячної батареї, що дало змогу з її допомогою запустити комерційно доступний компактний дрон. У цій батареї використані галогенідосвинцеві перовськітові сонячні елементи товщиною менше ніж 2,5 мкм з чемпіонською питомою фотоелектричною потужністю 44 Вт/г і середньою продуктивністю 41 Вт/г.

Сонячна батарея може забезпечити політ дрона

Фотоелектричний модуль великої площі (24 см2), використаний у дослідженні, дав змогу забезпечити автономну роботу дрона, яка «виходить за рамки можливого на одному заряді батареї, усуваючи необхідність стикування, заряджання на прив'язі або інших формах участі людини». Сонячні модулі з перовськіту становлять лише 1/400 від загальної ваги дрона.

Група протестувала кілька комбінацій альфа-метилбензил-йодиду амонію (MBA) у верхньому абсорбційному шарі перовськіту, а PEDOT:PSS поєднував функції перенесення дірок і електрода. За словами дослідників, найтриваліший час життя з різних складів MBA включав цезій (Cs), що вказує на «скорочення шляхів нерадіаційної рекомбінації завдяки присутності MBA і Cs».

Як підкладку використовували «ультратонку» прозору непровідну полімерну плівку товщиною 1,4 мкм, вкриту шаром оксиду алюмінію товщиною 100 нм. Вона ефективно слугувала «бар'єром» для вологи та газів.

«У пристроях такого типу немає місця типовим методам інкапсуляції, які просто занадто товсті. Натомість команда поклалася на великі й об'ємні кристали верхнього шару перовськіту MBA для ефективної пасивації поверхні, а для підкладки - на шар оксиду алюмінію, нанесений за допомогою інструменту атомно-шарового осадження (ALD), що захищає від зовнішніх умов, але водночас залишається легким і гнучким", - каже керівник дослідження Мартін Кальтенбруннер (Martin Kaltenbrunner).

Так, наприклад, у статті наголошується, що коефіцієнт пропускання водяної пари (WVTR) «покритої ультратонкої підкладки виявився приблизно на 35% нижчим» порівняно з еталонними зразками, що являли собою пристрої на основі йодистого метил-амонію свинцю (MAPbI3).

Інші особливості перовськитової комірки включають електронно-транспортний шар із метилового ефіру феніл-С61-бутирової кислоти (PCBM) із прошарком з оксиду титану та металевий верхній контакт, який, як зазначила група, може бути виготовлено почергово із золота, хрому/золота або недорогого алюмінію.

«У наших дослідженнях перовськитових сонячних батарей важливо використовувати прекурсори, які синтезуються в якомога меншу кількість етапів. Простота синтезу є ключовим фактором, оскільки ми хочемо, щоб технологія була масштабованою і давала змогу стримувати витрати на виробництво матеріалів", - каже Кальтенбруннер.

Сонячна батарея може забезпечити політ дрона

Досліджувана сонячна батарея з перовськіту площею 0,1 см2 мала напругу розімкненого ланцюга 1,13 В, щільність струму короткого замикання 21,6 мА/см2, коефіцієнт заповнення 74,3% і ефективність перетворення енергії 18,1%. Комірки-чемпіони досягли напруги розімкнутого ланцюга 1,15 В, коефіцієнта заповнення 78% і ККД 20,1%.

Більший пристрій мав площу активного осередку 1,0 см2, середню напругу розімкненого ланцюга 1,11 В, щільність короткого замикання 20,0 мА/см2, коефіцієнт заповнення 65,9% і ККД 14,7%. Пристрій-чемпіон досяг ККД 16,3%, заявила дослідницька група.

Модуль для живлення дрона складався з 24 взаємопов'язаних сонячних елементів площею 1 см2. Енергоавтономний гібридний безпілотник на сонячних батареях, доступний на ринку квадрокоптерів, важив лише 13 г.

Було перевірено стабільність і тривалу працездатність на відкритому повітрі. Наприклад, після 50 годин безперервного стеження за точкою максимальної потужності (MPPT) на навколишньому повітрі сонячні елементи з малою і великою площею не капсульованої поверхні зберегли 90% і 74% від початкової продуктивності відповідно. Крім того, зовнішня лабораторія підтвердила продуктивність і властивості складу перовськіту.

Команда стверджує, що вона продемонструвала «ширші переваги використання квазі-2D перовськітного активного шару» і що вона перевершує «інші композиції в цій галузі», додаючи, що продуктивність, стабільність і зручність використання ультралегкої перовськітної сонячної технології є «портативним та економічно ефективним рішенням для збирання стійкої енергії».

Як система зарядки безпілотників вона є кроком на шляху до створення «транспортних засобів вічної дії» як для аерокосмічних, так і для наземних застосувань, стверджує команда.

У команди є плани подальших досліджень у цьому напрямку. «Ми продовжимо роботу з розробки технології підкладки з бар'єром з AlOx, масштабованих методів осадження і масштабування до ще більших модулів розміром щонайменше 10x10 см. Ми маємо намір розробити легкі та гнучкі фотоелектричні рішення для живлення всіх видів робототехніки та автономних транспортних засобів, - зазначив Кальтенбруннер. - Існує великий потенціал для розгортання гнучких сонячних фотоелектричних систем як у земних, так і в космічних додатках».

QDEL - нова перспективна дисплейна технологія

Пошуки дослідників у сфері дисплейних технологій привели до появи пристроїв нового типу, де квантові точки наділені здатністю самосвічення.

Уже в назві технології QDEL, що розшифровується як «quantum dot electroluminescent», міститься пояснення її принципу: електролюмінісцентні квантові точки. А це означає, що самі квантові точки є такими, що світяться, не вимагаючи підсвічування, як це відбувається в QD-OLED. Таким чином, QDEL стала удосконаленням останньої, бо забезпечує ширше колірне охоплення і більшу яскравість, а також є більш доступною за ціною і не страждає від вигорання.
QDEL - нова перспективна дисплейна технологія
Зауважу, що QDEL відома також під назвою NanoLED, яку дав цій технології її розробник - компанія Nanosys. Вона планує, що QDEL буде реалізована в комерційних продуктах до 2026 року. Очікується, що з початку вона знайде своє застосування в телевізорах, комп'ютерних моніторах і автомобільних системах. При цьому однією з найважливіших переваг QDEL порівняно з OLED є краще співвідношення ціни та продуктивності. Втім, за цим показником вона навряд чи зможе конкурувати з нині широко поширеною LCD-LED.
QDEL - нова перспективна дисплейна технологія
Однією з причин такої високої ефективності QDEL є технологічний процес струменевого друку, що використовується для її виробництва. Втім, QDEL може випускатися і з застосуванням фотолітографії, хоча цей спосіб може викликати пошкодження квантових точок. Але зате такий техпроцес відкриває можливість використання QDEL у планшетах, ноутбуках, смартфонах, переносних пристроях і AR/VR-продуктах.

Якщо заглибитися в деталі QDEL, то варто зазначити, що такі дисплеї формуються з пікселів, до складу яких входять субпікселі з червоною квантовою крапкою, субпікселі із зеленою квантовою крапкою та - на відміну від сучасних дисплеїв QLED і QD-OLED - субпікселі з синьою квантовою крапкою. При цьому в дисплеях QDEL використовуються ті самі ядра квантових точок, що і в продуктах QD-OLED і QLED.

Оскільки пікселі QDEL самі виробляють світло і тому можуть повністю вимикатися, дисплеї QDEL можуть забезпечити такі самі глибокі чорні кольори і насичену контрастність, які зробили популярними OLED. Менша кількість шарів і деталей також впливає на ціну, довговічність і навіть товщину QDEL-дисплеїв.

Поки що про технологію QDEL мало говориться, оскільки досі навіть прототипи на її основі не демонструвалися публічно. Хоча на CES 2024 компанія Sharp Display проводила показ для обмеженої аудиторії двох своїх розробок на базі OLED. Один з екранів з діагоналлю 12,3 дюйма мав роздільну здатність 1920×720, а для другого - 30-дюймового - роздільну здатність не було заявлено.

При цьому QDEL пророкують велике майбутнє, оскільки ця технологія вирізняється не тільки кращою енергоефективністю, а й більшою яскравістю. За даними дослідників, для QDEL було отримано максимальну яскравість 614000 ніт. А завдяки тому, що в QDEL відсутні органічні матеріали, цій технології не загрожує вигоряння, як це відбувається в OLED. Тому є всі підстави очікувати, що з часом QDEL може зайняти місце OLED у сегменті преміальних дисплеїв.

HAMR-диски вже не поступаються за надійністю PMR-накопичувачам

Компанія Seagate опублікувала результати свого дослідження надійності випущених нею жорстких дисків різних типів. У результаті виявилося, що попри значне ускладнення конструкції, пристрої на базі технології HAMR характеризуються таким самим показником напрацювання на відмову, що і PMR-рішення.

Нагадаю, що в жорстких дисках із технологією HAMR (Heat-Assisted Magnetic Recording) запис інформації виконують із попереднім локальним розігрівом за допомогою лазера. Це дає можливість приблизно вдвічі збільшити щільність розміщення даних порівняно з традиційною технологією перпендикулярного магнітного запису (PMR, Perpendicular Magnetic Recording).
HAMR-диски не поступаються за надійністю PMR-накопичувачам
Лінійка HAMR-дисків, що випускається Seagate, отримала назву Mosiac 3+. За повідомленням компанії, тестування їхньої надійності триває з 2016 р., і за останні два роки цей показник зріс на 50%. Загалом же, випущено і протестовано понад 500 тис. таких пристроїв. І на сьогодні час середнього напрацювання на відмову (MTBF) для Mosiac 3+ становить 2,5 млн годин, що відповідає накопичувачам сімейства Seagate Exos корпоративного класу на базі технології PMR.

Виробник також оприлюднив таку цікаву інформацію, як продуктивність і надійність головок читання/запису HAMR-дисків. Виявляється, вони здатні працювати протягом 6 тис. годин і при цьому передавати до 3,2 ПБ інформації. Агресивні навантажувальні випробування в польових умовах показали термін служби головок понад 7 років, що в більшості випадків перевищує поточний термін служби дисків на основі PMR та очікування користувачів. Хоча більшість користувачів очікують, що сучасні диски PMR прослужать близько чотирьох або п'яти років (за середнього обсягу читання і запису), випробування дисків Mozaic 3+ на основі HAMR компанії Seagate показали, що вони здатні витримати й більш тривале використання.

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT