+11 голос |
Nvidia відкрила додаткові деталі дорожньої карти своїх GPU перед тим, як розкрити подробиці архітектури GPU Blackwell на конференції Hot Chips, яка відбудеться наступного тижня. Повідомляється, що компанія планує версію з 288 ГБ пам'яті HBM3e під назвою Blackwell Ultra, а також новий CPU під назвою Vera у 2026 році та нову архітектуру GPU під назвою Rubin у 2025 році з використанням пам'яті нового покоління HBM4 та версію зі ще більшим обсягом пам'яті під назвою Rubin Ultra.
«Звичайно, у Blackwell Ultra також буде збільшено обсяг обчислень. Ми не будемо розкривати, наскільки, але в Blackwell Ultra буде більше обчислювальних можливостей», - сказав Дейв Сальватор (Dave Salvator), директор із прискорення обчислень у Nvidia. «У 2026 році ми перейдемо до архітектури Rubin, а потім, звісно ж, до Rubin Ultra, а в процесорах ми перейдемо від Grace, нинішнього покоління, до архітектури процесорів Vera у 2026 році, а також побачимо деякі зміни в наших мережевих продуктах, що також дуже важливо, оскільки зрештою ми є компанією, яка виробляє платформи для центрів оброблення даних, а для створення платформи необхідні всі ці компоненти».
Нагадаємо, організація зі стандартизації JEDEC близька до завершення розробки стандарту HBM4 для високопродуктивної пам'яті. Стандарт HBM4 передбачає подвоєну кількість каналів на стек порівняно з HBM3, але при цьому займає більшу фізичну площу. Для підтримки сумісності пристроїв стандарт гарантує, що один контролер за потреби зможе працювати як з HBM3, так і з HBM4. Для різних конфігурацій будуть потрібні різні інтерпозери, щоб врахувати відмінності в площі. У HBM4 будуть визначені рівні 24 Гб і 32 Гб, з можливістю підтримки стеків TSV висотою 4, 8, 12 і 16 мм. Комітет досяг початкової згоди щодо швидкісних діапазонів до 6,4 Гбіт/с і продовжує обговорення більших частот.
У планах Nvidia представити на конференції Hot Chips новітні розробки для платформи Blackwell, а також розповісти про дослідження в галузі рідинного охолодження для центрів обробки даних і агентів штучного інтелекту для проєктування чипів. Аджай Тірумала (Ajay Tirumala) і Раймонд Вонг (Raymond Wong), директори з архітектури Nvidia, уперше презентують платформу та пояснять, як ці технології працюють разом, щоб забезпечити новий стандарт для AI та прискореної обчислювальної продуктивності за одночасного підвищення енергоефективності.
Алі Хейдарі (Ali Heydari), директор з охолодження та інфраструктури центрів обробки даних у NVIDIA, представить кілька проєктів центрів обробки даних із гібридним охолодженням.
Деякі проєкти передбачають дооснащення наявних дата-центрів із повітряним охолодженням пристроями рідинного охолодження, пропонуючи швидке і просте рішення для додавання можливостей рідинного охолодження в наявні стійки. Інші проєкти вимагають прокладання трубопроводів для рідинного охолодження безпосередньо до чипа за допомогою розподільних блоків охолодження або шляхом повного занурення серверів в охолоджувальні резервуари. Хоча ці варіанти вимагають більших початкових інвестицій, вони призводять до суттєвої економії як енергоспоживання, так і експлуатаційних витрат.
Про DCIM у забезпеченні успішної роботи ІТ-директора
+11 голос |