Компанія ZeroPoint Technologies AB (Гетеборг, Швеція) анонсувала технологію апаратного стиснення, яку, за її твердженням, можна використовувати для збільшення на 50% ефективної пам'яті основоположних AI-моделей, таких як великі мовні моделі (LLM).
Компанія ZeroPoint, що спеціалізується на стисненні даних, була заснована 2015 року професором Пером Стенстремом (Per Stenström) і Ангелосом Арелакісом (Angelos Arelakis) у рамках програми, розробленої в Технологічному університеті Чалмерса.
Продукт під назвою AI-MX забезпечує стиснення і декомпресію розгорнутих фундаментальних моделей, включно з великими мовними моделями. Продукт буде готовий до постачання клієнтам і партнерам у другій половині 2025 року.
За словами ZeroPoint, використання AI-MX дасть змогу корпоративним і гіпермасштабним центрам обробки даних збільшити багато показників продуктивності, включно з ефективною адресованою пам'яттю, пропускною спроможністю пам'яті, кількістю обслуговуваних токенів на секунду. Крім того, фірмові технології стиснення, ущільнення та управління пам'яттю ZeroPoint з апаратним прискоренням працюють з наносекундними затримками, що може бути в 1000 разів швидшим за традиційні алгоритми стиснення, стверджують у компанії.
AI-MX працює з широким спектром типів пам'яті, включно з HBM, LPDDR, GDDR і DDR, що забезпечує переваги оптимізації пам'яті для більшості випадків використання прискорення AI.
«Сьогоднішнім анонсом ми представляємо перше у своєму роді рішення з оптимізації пам'яті, яке здатне заощадити компаніям мільярди доларів на рік, пов'язані з будівництвом та експлуатацією великомасштабних центрів обробки даних для застосунків штучного інтелекту, - йдеться в заяві Класа Моро (Klas Moreau), генерального директора ZeroPoint Technologies.
ZeroPoint Technologies заявила, що має намір перевершити 1,5-кратне збільшення місткості та продуктивності в наступних поколіннях продукту AI-MX.
Вебінар "Безпечний контроль доступу в корпоративній мережі завдяки Cisco ISE та підходу Zero Trust" - 29 квітня