`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Запропоновано "легкий перехід" до обчислень у пам'яті

Швейцарський стартап Synthara запропонував своє розв'язання задачі організації обчислень у пам'яті, що не потребує внесення радикальних змін до нині широко поширеної обчислювальної архітектури.

З лавиноподібним зростанням популярності технології штучного інтелекту дедалі актуальнішим стає прискорення опрацювання великих обсягів інформації, що необхідні, наприклад, для великих мовних моделей з мільярдами параметрів. Мабуть, головною перешкодою для організації ефективної роботи з ними є обмежена пропускна здатність каналу передавання даних між оперативною пам'яттю та процесором. Виходом із цієї ситуації було б упровадження технології обчислень у пам'яті, але для цього знадобилося б докорінне перетворення обчислювальних платформ, які нині використовують. Однак просто інтегроване в них рішення від компанії Synthara може зняти таку суперечність.
Запропоновано "легкий перехід" до обчислень у пам'яті
Компанія стверджує, що інтеграція її технології в уже наявну архітектуру обчислювальної логіки може забезпечити 50-кратне підвищення продуктивності, не вимагаючи змін у загальній архітектурі чіпа або в програмних потоках. Причому у неї вже з'явився такий клієнт, як Bosch.

Цікаво, що стартап Synthara виокремився у 2019 р. з Інституту нейроінформатики (Цюрихський університет і ETH Zurich). А головою ради директорів компанії є Шон Мітчелл, співзасновник і генеральний директор компанії Movidius, що займається розробками в галузі штучного інтелекту та обробки технічного зору. Нагадаю, у 2016 році Movidius було продано Intel за 300 мільйонів євро.

Заснована Ману Наїром (Manu Nair), який нині обіймає посаду CEO, і Алессандро Аймаром (Alessandro Aimar), який є технічним директором компанії, Synthara розробила метод вбудовування обчислень у пам'яті в уже наявні програмно-апаратні платформи та підтримки застарілих застосунків. Технологія також може бути використана для розробки програмно-апаратних платформ з нуля.

За словами Наїра, обчислення в пам'яті - це те, що електронна промисловість повинна буде прийняти через енергоефективність. "Майже у всіх обчислювальних системах вузьким місцем є переміщення даних, тому підхід тут полягає в тому, щоб зменшити їхнє переміщення", - каже Наїр. Головна особливість пропозиції Synthara полягає в тому, що вона дає змогу компаніям ефективно здійснювати перехід, включно з підтримкою застарілого програмного забезпечення.

Пропозиція Synthara представлена у вигляді напівпровідникового IP під назвою ComputeRAM і супутнього програмного забезпечення, що додається в ланцюжок інструментів розробки.

Наразі ComputeRAM заснована на SRAM, але не залежить від типу пам'яті. Вона може бути застосована до ReRAM або інших типів пам'яті. Напівпровідникова ІС використовує масив пам'яті з додатковою периферійною схемою, яка збільшує площу приблизно на 5-10%, дозволяючи пам'яті виконувати математичні функції. Це повністю CMOS-сумісний процес.

"Система ComputeRAM пропонує дещо іншу абстракцію, ніж множення-накопичення. Її найнижчий обчислювальний примітив - це точковий добуток", - каже Наїр. "Ми вважаємо за краще працювати з бітовими комірками пам'яті. Ми також можемо працювати зі скомпільованими масивами пам'яті. Ми створимо компілятор ComputeRAM".

Програмне забезпечення також є ключовим елементом у ланцюжку інструментів. "Ми автоматизуємо розбиття алгоритмів і синхронізацію, розв'язуючи проблему для системного інтегратора", - каже Наїр.

"Інновації Synthara полягають в архітектурі, яка дозволяє нам зробити обчислення в пам'яті проблемою програмування, а не апаратною проблемою. Технологія не залежить від типу процесора - ми можемо підтримувати RISC-V, ARM або x86. Вона не залежить від технології пам'яті. Наш програмний стек дозволяє програмісту запускати як старі, так і нові алгоритми без переписування коду з підтримкою ComputeRAM", - стверджує компанія на своєму сайті.

Технологія також не залежить від типу даних. "Ми поки що не підтримуємо повноцінних обчислень із комою, що плаває, але цілі типи даних і блокчейн ми підтримуємо", - каже Наїр. "Крім того, вона динамічно конфігурується під час виконання".

Synthara випустила тестовий чіп ComputeRAM на базі SRAM за 22-нм техпроцесом 22FDX від GlobalFoundries. Наїр зазначив, що для ComputeRAM не потрібні можливості корпусування, характерні для техпроцесу 22FDX з повністю збідненим кремнієм на ізоляторі (FDSOI). Тестовий чип призначений для демонстрації, а його зразки будуть відправлені кільком замовникам.

Наїр заявив, що розраховує перенести ComputeRAM на техпроцес TSMC до кінця 2024 року, хоча вибір конкретного техпроцесу залежатиме від вимог провідних замовників.

На сьогодні Synthara залучила близько 3,5 млн дол. як початкове фінансування та отримала підтримку у вигляді грантів від Європейського союзу і швейцарських організацій на суму близько 5,5 млн швейцарських франків (близько 6,3 млн дол.). Наразі компанія продовжує займається збором коштів.

Гібридні фазо-обмінні мемристори поєднують можливості DRAM і NAND

У пошуках нових технологій пам'яті дослідники зуміли домогтися перспективних результатів, які дають змогу говорити про появу нового класу пристроїв, що поєднують високу швидкість роботи DRAM і енергонезалежність NAND.

Про свої нові гібридні резистивні перемикачі вчені Рочестерського університету розповідають у дослідженні, опублікованому в журналі Nature Electronics. Розроблений у лабораторії Стівена М. Ву, доцента кафедри електротехніки та комп'ютерної інженерії та фізики, підхід поєднує в собі найкращі якості двох наявних форм резистивних перемикачів, які використовуються для пам'яті: мемристорів і фазо-обмінних матеріалів. Обидві форми були вивчені на предмет їхніх переваг перед найпоширенішими сьогодні формами пам'яті, включно з динамічною пам'яттю з довільним доступом (DRAM) і флешпам'яттю, але мають свої недоліки.

Ву каже, що мемристори, які працюють шляхом подачі напруги на тонку нитку між двома електродами, зазвичай страждають від нестачі надійності порівняно з іншими формами пам'яті. Водночас фазо-обмінні матеріали, які передбачають вибіркове перетоплення матеріалу або в аморфний, або в кристалічний стан, вимагають занадто багато енергії.

"Ми об'єднали ідею мемристора і фазо-обмінного пристрою таким чином, щоб вийти за рамки обмежень кожного з них", - каже Ву. "Ми створили двотермінальний мемристорний пристрій, який переводить один тип кристала в інший тип кристалічної фази. Ці дві кристалічні фази мають різний опір, який можна використовувати як пам'ять".

Ключовим моментом є використання двовимірних матеріалів, які можна розтягнути до такої міри, що вони опиняться між двома різними кристалічними фазами, і їх можна буде зрушити в будь-яку сторону з відносно невеликим зусиллям.

"Ми створили його, по суті, просто розтягуючи матеріал в одному напрямку і стискаючи його в іншому", - каже Ву. "Це дає змогу збільшити продуктивність на порядки. Я бачу шлях, на якому це може опинитися в домашніх комп'ютерах як надшвидка і надефективна форма пам'яті. Це може мати велике значення для обчислювальної техніки в цілому".

Ву і його команда аспірантів провели експериментальну роботу й у співпраці з дослідниками з факультету машинобудування Рочестера, включно з доцентами Хесамом Аскарі та Собхітом Сінгхом, визначили, де і як деформувати матеріал. За словами Ву, найбільшою перешкодою на шляху створення мемристорів із фазовим переходом є подальше підвищення їхньої загальної надійності, але, проте, він натхненний прогресом, якого досягла команда на сьогодні.

"AI конкуруватиме з людиною вже через п'ять років"

Такий прогноз зробив у своєму виступі на конференції DealBook Summit глава Nvidia Дженсен Хуанг (Jensen Huang).

За словами Дженсена Хуанга, якщо під штучним інтелектом загального призначення (artificial general intelligence, AGI) розуміти комп'ютер, який може виконувати тести, "цілком зіставні" з людським інтелектом, то "в найближчі п'ять років ви побачите AI, здатні виконувати ці тести".

Що ж стосується найближчої перспективи, то, на думку Дженсена Хуанга, конкуренція у сфері AI призведе до появи готових інструментів AI, які компанії в різних галузях налаштовуватимуть відповідно до своїх потреб - від проєктування мікросхем і створення програмного забезпечення до відкриття ліків і радіології.

За словами Дженсена Хуанга, одна з причин, чому технологічна індустрія все ще перебуває на відстані кількох років від AGI, полягає в тому, що, хоча машинне навчання наразі майстерно справляється з такими завданнями, як розпізнавання і сприйняття, воно поки що не може виконувати багатоступеневі міркування, що є пріоритетом для компаній і дослідників.

"Усі над цим працюють, - сказав Хуанг. І технологія розвивається дуже швидко. Немає жодних сумнівів у тому, що темпи прогресу високі. Усі ми розуміємо, що, звісно, те, що ми можемо зробити сьогодні за допомогою цих моделей та інтелекту, пов'язане, але не одне й те саме".

Що й казати, перспектива в 5 років виглядає зовсім не як віддалене майбутнє, тому людству варто серйозно замислитися над тим, як піде його подальший розвиток за участю AGI.

Найбільш енергоефективний суперкомп'ютер забезпечує 65,4 Gflops/Вт

Одна з цікавих категорій рейтингу суперкомп'ютерів, що регулярно оновлюється, присвячена оцінці енергоефективності цих платформ. Погодьтеся, не так просто забезпечити не просто максимальну обчислювальну продуктивність, а й зробити це з витратою мінімального енергоспоживання.

У нещодавно оприлюдненому рейтингу TOP500 суперкомп'ютерів найбільш енергоефективною виявилася платформа Henri, розміщена в Інституті Flatiron у Нью-Йорку (США) з показником 65,4 Gflops/Вт. При цьому вона показала результат HPL 2,88 Pflops. Система побудована Lenovo на базі Intel Xeon Platinum і NVIDIA H100. ThinkSystem SR670 має 8288 загальних ядер, і якщо в останніх списках Green 500 вона, як і раніше, посідає перше місце, то в списку TOP500 перебуває на 293-му рядку.

Система Frontier Test & Development (TDS) в ORNL (штат Теннессі, США) посідає друге місце з показником енергоефективності 62,68 Gflops/Вт і результатом HPL 19,2 Pflops. TDS, по суті, являє собою одну стійку, ідентичну реальній системі Frontier, і використовує 120832 загальних ядра.

Третє місце посіла система Adastra, розташована у французькому центрі GENCI-CINES. Енергоефективність системи склала 58,02 Gflops/Вт, а продуктивність - 46,1 Pflops. Всього в Adastra налічується 319 072 ядра. Система побудована компанією HP Enterprise і модернізується прискорювачем (APU) AMD Instinct MI300A.

Як і в минулому списку, система Frontier, що посідає 1-е місце в TOP500, перебуває на 8-му місці за енергоефективністю - 52,59 Gflops/Вт. Примітно, що це перша машина, яка досягла екзафлопсного рівня, і вона показує, що для досягнення вражальних показників енергоефективності не обов'язково жертвувати потужністю.

Три головні помилки Intel

У своєму інтерв'ю для індійського видання Digit головний виконавчий директор Intel Пет Гелсінгер (Pat Gelsinger) серед іншого зупинився на такій цікавій темі, як прорахунки, яких припустилася корпорація в останні десятиріччя.

Варто зазначити, що нинішній очільник Intel має вельми великий послужний список у корпорації, де він розпочав свою трудову діяльність у 1979 році та яку покидав у період із 2009 до 2021 року. Зізнаюся, мені довелося поспілкуватися з ним на конференції Intel Developer Forum, коли вона ще проходила в Сан-Хосе. І тоді Пет Гелсінгер справив найпозитивніше враження за свою захопленість технологіями, оскільки на той момент він був головним технічним директором корпорації та вмів захопити ідеями, які знаходили втілення в розробках Intel.

Тепер же на посаді глави його критику на адресу попередників я сприймаю скоріше як план дій, ніж можливість виправдатися за не надто міцні нинішні позиції Intel. Отже, трьома головними невдачами корпорації Пет Гелсінгер вважає її спробу вийти в сегмент смартфонів, відмову від проєкту Larrabee і запізнілий фокус на розвиток бізнесу контрактного виробництва.

Нагадаю, що перші чипи Atom були анонсовані у 2008 р. і замислювалися з прицілом на смартфони. Але смартфон на базі Atom вийшов на ринок лише у 2012 році. Втім вже у 2016 Intel пішла з цього бізнесу.

Приблизно в той самий час - у 2010 році - компанія закрила проєкт Larrabee. Це була спроба створення універсального графічного процесора, до якої на той момент була прикута увага всієї ІТ-спільноти. Примітно, що програму закрили після того, як Гелсінгер пішов із компанії. Нагадаємо, Intel планувала запустити Larrabee як для споживчого ринку, так і для високопродуктивних обчислень, але спочатку було скасовано плани для сегмента споживачів, а потім і всю програму GPU. Напрацювання Larrabee були використані в Xeon Phi, хоча цей чип і не був настільки амбітним і не мав того впливу, який ми спостерігали в GPU. Немає потреби говорити про те, що якби Intel створила успішну програму випуску GPU, то вона не опинилася б у такому невигідному становищі порівняно з Nvidia в нинішніх перегонах озброєнь у сфері AI.

З поверненням в Intel Гелсінгер взявся активно впроваджувати в життя програму IGM 2.0, яка передбачає створення успішного бізнесу з контрактного виробництва чипів із використанням фірмових технологій корпорації. Пригадую, що ця ідея часом з'являлася в обговореннях експертів ще до призначення Гелсінгера главою Intel. Але тоді розмови завершувалися тим, що це не на часі, оскільки, з одного боку, виробничі потужності були повністю завантажені випуском власних чипів, з іншого - в компанії побоювалися передачі своїх технологічних напрацювань конкурентам.

У своєму інтерв'ю Digit Гелсінгер не забув зауважити, що скористатися перевагами тенденцій, що зароджуються, непросто: "Не всі вони бувають правильними", зазначивши, що він "поверне нас на місце". Тепер, очоливши компанію, Гелсінгер намітив для Intel новий курс, який, схоже, приносить свої плоди. Тільки час покаже, чи вдасться в рамках цього амбітного плану зловити наступну велику хвилю.

Публічна хмара розміром зі стійку

Стартап Oxide Computer оголосив днями про отримання інвестицій у розмірі 44 млн дол. для виведення на ринок своєї розробки - Cloud Computer.

Здавалося б, що нового можна запропонувати у сфері хмар сьогодні, коли хмарна технологія міцно увійшла в повсякденне життя практично всіх, починаючи з домогосподарки й закінчуючи CIO великих корпорацій. З усім тим, компанія Oxide Computer виступила з досить оригінальною ідеєю невеликих програмно-апаратних платформ, які за своєю функціональністю дуже схожі на публічні хмари.

Платформа Oxide Cloud Computer об'єднує обчислювальну платформу, систему зберігання та мережеве обладнання, але однією з найважливіших її складових є вбудоване програмне забезпечення управління. Система спроєктована таким чином, щоб забезпечити роботу адміністратора, аналогічну до взаємодії з публічною хмарою: наприклад, для ініціалізації нових віртуальних машин достатньо лише кількох клацань миші у візуальному інтерфейсі.

Хмарний комп'ютер Oxide займає цілу стійку в ЦОДі. У ній можна розмістити від 16 до 32 санчат - компактних серверів, створених за індивідуальним проєктом. Кожен із них включає 64-ядерний CPU від AMD, 1-терабайтний пул оперативної пам'яті та 32 терабайти NVMe флешпам'яті.

"Ми від самого початку знали, що дизайн на рівні стійки дасть нам змогу змінювати геометрію обчислювальних санчат - ми отримаємо вищу щільність у стійці внаслідок обміну горизонтальних площ на вертикальні", - зізнався співзасновник і головний технічний директор Oxide Браян Кантрілл.

Повністю укомплектована стійка Cloud Computer включає 32 процесори AMD, 35 ТБ ОЗП і близько 1 ПБ флешпам'яті. Також є два вбудованих комутатори, які координують потік даних між різними апаратними компонентами з піковою пропускною спроможністю 6,4 Тбіт/c для кожного.

"Будь-яка людина, яка звикла до ЦОД, зверне увагу на відсутність маси кабелів із холодним входом, які зазвичай розташовуються в передній частині стійки", - пише Кентрілл. "Місткість хмарного комп'ютера Oxide може бути збільшена просто шляхом встановлення нових обчислювальних санчат - нічого не потрібно підключати".

Таким чином, ключовою перевагою Cloud Computer є те, що він обіцяє забезпечити простоту використання, аналогічну публічній хмарі. За словами представників Oxide, налаштування системи займає кілька годин замість тижнів і місяців, необхідних для створення традиційної інфраструктури ЦОД. Вбудоване програмне забезпечення для управління дає змогу користувачам виділяти апаратні ресурси для проєкту за допомогою інтерфейсу "наведи й перетягни" або через інтерфейс прикладного програмування, як це робиться в публічній хмарі.

Oxide пропонує й складніші функції управління. За словами представників компанії, адміністратори можуть встановлювати на створювані віртуальні машини програмні компоненти, наприклад операційні системи. Крім того, можна обмежити обсяг інфраструктури, що виділяється на проєкт, виходячи з бюджетних міркувань.

Що стосується мережевих можливостей, то Oxide надає можливість організації віртуальних машин у так звану VPC, або віртуальну приватну хмару. Це ізольована мережа, яка ізолює ресурси, що знаходяться в ній, від інших частин центру обробки даних компанії. Вбудований міжмережевий екран регулює проходження трафіку між ресурсами в VPC, а також між різними VPC.

Розробники Oxide потурбувалися і про наявність вбудованих програмних засобів контролю флешпам'яті в кожному хмарному комп'ютері на предмет технічних проблем. Якщо твердотілий накопичувач виходить з ладу, програма може перемістити дані, що містяться на ньому, в інші частини системи. Щоб ще більше знизити ризик втрати даних, замовники можуть використовувати вбудовану функцію миттєвого знімка для створення резервних копій інформації та перенесення їх з Cloud Computer на зовнішню інфраструктуру.

Погодьтеся, покладена в основу Cloud Computer ідея досить цікава, причому настільки, що свій внесок у цей стартап зробив навіть інвестиційний фонд Intel, хоча в основу платформи покладено процесори AMD. Втім, Cloud Computer сьогодні перебуває на самому початку свого шляху до успіху. За словами представників Oxide, наразі її обладнання використовується Національною лабораторією штату Айдахо і неназваною "глобальною організацією, що надає фінансові послуги". У найближчі кілька місяців компанія планує поставити ще кілька своїх "хмарних" комп'ютерів кільком клієнтам зі списку Fortune 1000. Компанія Oxide має намір використовувати оголошений нею раунд фінансування в розмірі 44 млн дол. для розширення впровадження своїх систем.

Смартфони стануть такими, що згинаються?

Цікаву концептуальну розробку показала Motorola, зробив демонстрацію свого смартфона, що згинається, на щорічної конференції Lenovo Tech World '23.

Не припиняються експерименти провідних виробників смартфонів, які намагаються намацати чергову "золоту жилу". Хоча розкладні пристрої ще не вийшли в категорію масових рішень, але вже є всі підстави очікувати цього в найближчому майбутньому. А значить, саме час запропонувати ринку якусь нову привабливу ідею, на основі якої можна випустити преміальний (читайте, дорогий) пристрій.

Смартфони стануть такими, що згинаються?

Цього разу Motorola вирішила здивувати, дещо відступивши від уже звичної концепції екрана, що розкладається в довжину, наділивши конструкцію корпусу достатньою гнучкістю, щоб він міг згинатися з досить малим радіусом кривини. Це дало можливість не тільки розміщувати смартфон на столі у вигляді стенда, а й охоплювати ним зап'ястя, як браслетом. Не беруся судити, наскільки ергономічним виявляється останній варіант, але вигляд він має вельми оригінальний. Хоча навряд чи подібне охоплення руки буде настільки міцним, щоб давати змогу постійно носити смартфон. Але його встановлення на столі у вигляді стенда точно має бути зажадано великим числом потенційних користувачів.

Виробник не повідомляє якихось технічних деталей свого концепту, окрім розміру екрана, що становить 6,9 дюйма, який при його згинанні скорочується до 4,6 дюйма. Зауважу, що обидва ці формфактори добре відомі ринку і цілком зрозумілі розробникам додатків. Так що проблем з використанням бути не повинно.

А що ви думаєте з приводу зручності використання подібного смартфона?

NVDRAM – фероелектрична пам'ять порівнянна за швидкістю з DRAM

Популярність додатків категорії AI, що стрімко зростає, які пред'являють високі вимоги до швидкості обробки великих обсягів даних, залучає розробників до впровадження в обчислювальні платформи нових технологій.

На конференції International Electron Devices Meeting, яка запланована на кінець цього року, буде представлена доповідь «NVDRAM: Енергонезалежна фероелектрична пам'ять з двошаровим 3D-стеком ємністю 32 Гбіт і продуктивністю, близькою до пам'яті DRAM, для складних робочих навантажень AI», підготовлена Нірмалом Рамасвами (Nirmal Ramaswamy), віцепрезидентом Micron з просунутої DRAM і пам'яті, що розвивається.

У той час як нові комп'ютерні архітектури, такі як обчислення, близькі до пам'яті, та обробка в пам'яті, є популярними темами для досліджень, представники Micron стверджують, що найближчим часом з'явиться можливість оснастити наявні традиційні обчислювальні архітектури більш ефективною пам'яттю. Пропоноване ними рішення – це перша у світі технологія двошарової високопродуктивної енергонезалежної фероелектричної пам'яті місткістю 32 Гбіт, яка отримала оксюморонну назву "енергонезалежна динамічна пам'ять із довільним доступом" (NVDRAM).

З усім тим, технологія демонструє потенціал для більшості програм, а також штучного інтелекту. Вона поєднує в собі стабільність і високу довговічність фероелектричних комірок пам'яті, перевершує за показниками зберігання даних флешпам'ять NAND і забезпечує швидкість читання/запису, подібну до DRAM, стверджується в анонсі.
NVDRAM – фероелектрична пам'ять порівнянна за швидкістю з DRAM
Пам'ять включає 5,7-нм фероелектричний конденсатор як пристрій утримання заряду в архітектурі 1T1C традиційної DRAM. Як пристрої управління доступом у пам'яті використовуються двох затворні полікристалічні кремнієві транзистори. Для забезпечення максимальної щільности пам'яті подвійний шар пам'яті укладається поверх шару схем доступу на базі КМОП з кроком 48 нм.

Оскільки IEDM – це наукова конференція, навряд чи на ній офіційно обговорюватимуться питання комерційного впровадження такої пам'яті. Але те, що вона розглядається як "найближча можливість", дозволяє припустити, що рішення про її впровадження вже прийнято, або не за горами.

Навіщо процесорам скляні підкладки?

Всі ми звикли, що основним матеріалом для виготовлення чіпів є кремній, але виявляється на нинішньому етапі розвитку, коли процесори виконуються у вигляді збірок, посилюється значення властивостей підкладки, на якій розміщуються ці збірки.

Результатами своїх досліджень у галузі створення процесорів поділилися дослідники Intel. На їхню думку, оптимальним матеріалом підкладки для розміщення на ній компонентів процесора є скло. Цей матеріал повинен незабаром замінити композитні органічні сполуки, які нині широко застосовуються, якими є плексиглас і гума. Якщо ви раніше не чули про їх використання, це не тому, що такий факт є секретом. Просто раніше цей факт не висвітлювався широко навіть серед ентузіастів. Тепер же в Intel вирішили привернути увагу до своєї розробки, яка може зробити серйозні зміни в побудові процесорів.
Навіщо процесорам скляні підкладки?
Чому саме скло? Як зазначається у випущеному з цього приводу пресрелізі Intel, властивості скла як підкладки краще відповідають вимогам багатокомпонентних збірок. А саме, поверхня скла є набагато гладкішою, його фізико-хімічні параметри ближче до кремнію, що призводить до приблизно однакових деформацій з такими підкладками кремнієвих елементів при нагріванні. Відзначаються також можливості формування в склі каналів оптичних високошвидкісних міжз'єднань, які мають набагато більшу пропускну здатність, ніж традиційні електричні.
Навіщо процесорам скляні підкладки?
За повідомленням Intel, впровадження нової технології передбачається на другу половину цього десятиліття. Цей крок є необхідним, оскільки очікується, що до кінця десятиліття напівпровідникова промисловість, ймовірно, досягне межі можливостей масштабування транзисторів на кремнієвому корпусі за допомогою органічних матеріалів, які споживають більше енергії та мають такі обмеження, як усадка та деформація. Масштабування має вирішальне значення для прогресу та еволюції напівпровідникової промисловості, і скляні підкладки є життєздатним та необхідним наступним кроком для створення наступного покоління напівпровідників.
Навіщо процесорам скляні підкладки?
Скляні підкладки витримують вищі температури, на 50% менше спотворюють малюнок, мають наднизьку площинність для поліпшення глибини фокуса при літографії, а також мають стабільність розмірів, необхідну дуже щільного міжшарового накладання міжз'єднань. Завдяки цим відмінним властивостям на скляних підкладках можливе 10-кратне збільшення щільности міжз'єднань. Крім того, покращені механічні властивості скла дозволяють створювати корпуси надвеликого формфактора з дуже високою продуктивністю.
Навіщо процесорам скляні підкладки?
Стійкість скляних підкладок до високих температур також забезпечує архітекторам мікросхем гнучкість у виборі правил проєктування передачі живлення та маршрутизації сигналів, оскільки дозволяє легко інтегрувати оптичні міжз'єднання, а також вбудовувати індуктори та конденсатори в скло при вищій температурі обробки. Це дозволяє створювати більш досконалі рішення щодо доставлення живлення, забезпечуючи при цьому високошвидкісну передачу сигналів, яка необхідна при набагато меншій потужності. Ці численні переваги наближають галузь до масштабування 1 трлн транзисторів на корпусі до 2030 року

Як бачимо, для створення складання з великої кількості елементів, необхідний дійсно міцний фундамент, яким якраз і виявилося скло.

GPU на кремнієвій фотоніці – до 2025 року

За повідомленням тайванського видання Economic Daily, компанії TSMC, Broadcom та NVIDIA поєднали свої зусилля для розробки комерційного рішення на базі кремнієвої фотоніки.

У сфері високопродуктивних обчислень та штучного інтелекту велике значення має прискорення передачі значних обсягів даних. Перспективним напрямом, що дозволяє чи не на порядок збільшити пропускну здатність каналів, що об'єднують обчислювальні ядра у складі процесорів та графічних адаптерів, є кремнієва фотоніка. В цей час розвитком цієї технології займаються такі ІТ-гіганти, як IBM та Intel. І ось про своє рішення вийти на цей напрямок оголосив альянс TSMC, Broadcom та NVIDIA. Про серйозність їхніх намірів можна судити з того, що TSMC сформувала команду із 200 своїх дослідників, які займуться завданням інтеграції блоків кремнієвої фотоніки до технологічних процесів виробника.

Ю Чженьхуа, віцепрезидент TSMC, зазначив: "Якщо ми зможемо створити хорошу інтегровану систему на основі кремнієвої фотоніки, це дозволить розв'язати дві ключові проблеми - енергоефективність та обчислювальну потужність AI. Це буде новий... зсув парадигми. Можливо, ми знаходимося в початку нової ери". За його визнанням, компанія зіштовхнулася з безпрецедентним попитом з боку своїх клієнтів на подібні платформи, тому вона розраховує до кінця 2024 року розширити свої потужності для упакування сучасних мікросхем для розв'язання цих проблем. Відмова від обмежень "традиційної електричної" передачі може призвести до появи на ринку обчислювальних GPU нового покоління зі штучним інтелектом вже до 2025 року.

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT