0 |
Nvidia анонсувала низку нових продуктів генеративного АІ, призначених для прискорення розробки великих мовних моделей та інших передових додатків штучного інтелекту.
На SIGGRAPH 2023 Nvidia оголосила про нове партнерство з Hugging Face, компанією, яка розробляє інструменти для машинного навчання, що дозволить розробникам розгортати і використовувати свої моделі генеративного АІ на суперкомп’ютерній інфраструктурі Nvidia DGX Cloud для збільшення робочих навантажень. Розробники також отримають доступ до нового Nvidia AI Workbench, який дозволить їм упаковувати свою роботу і використовувати її де завгодно - на ПК, робочій станції або в хмарі, а також отримають доступ до випуску Nvidia AI Enterprise 4.0.
Поєднання Hugging Face і DGX Cloud дозволить розробникам швидко тренувати великі мовні моделі, створені на основі власних бізнес-даних, для галузевих знань і додатків, наприклад, для інтелектуальних чат-ботів, пошуку та підбиття підсумків. Використовуючи суперкомп’ютерні потужності, LLM можна навчати та налаштовувати на потужній інфраструктурі.
«Дослідники та розробники - це головний ресурс розвитку генеративного Аі, який трансформує кожну галузь, - сказав Дженсен Хуанг (Jensen Huang), засновник і генеральний директор Nvidia. - Hugging Face і Nvidia об’єднують найбільшу у світі спільноту АІ з обчислювальною платформою Nvidia в провідних світових хмарах».
Платформа Hugging Face підтримує понад 15 000 організацій, а її спільнота поділилася понад 250 000 АІ-моделей і більш ніж 50 000 наборів даних, які її користувачі створили, налаштували і розгорнули.
В рамках співпраці Hugging Face запропонує абсолютно нову послугу під назвою «Навчальний кластер як послуга». Він спростить створення та адаптацію нових користувацьких генеративних моделей АІ для корпоративних клієнтів, використовуючи свою платформу та Nvidia DGX Cloud для інфраструктури одним кліком миші.
За допомогою Nvidia AI Workbench розробники можуть просто сісти, завантажити і налаштувати модель з будь-якого популярного репозиторію, такого як Hugging Face, GitHub і Nvidia NGC, використовуючи свої власні дані.
«Підприємства по всьому світу намагаються знайти правильну інфраструктуру та створити генеративні моделі та додатки АІ, - сказав Манувір Дас (Manuvir Das), віце-президент Nvidia з корпоративних обчислень. - Nvidia AI Workbench забезпечує спрощений шлях для міжорганізаційних команд до створення додатків на основі Аі, які стають все більш важливими в сучасному бізнесі».
Один і той самий інтерфейс дозволяє розробникам упаковувати свій проект і переміщати його між різними екземплярами. Розробники можуть працювати над проектом на своєму ПК і відчувати потребу перенести його в хмару, а Workbench спрощує цю задачу, дозволяючи легко упакувати проект, перенести його туди, розпакувати і продовжити розробку.
Workbench AI також постачається з повним набором інструментів генерації ШІ для розробників, включаючи моделі корпоративного рівня, набори для розробки програмного забезпечення та бібліотеки з репозиторіїв з відкритим вихідним кодом і платформи Nvidia AI. Все це в єдиному середовищі для розробників.
Nvidia заявила, що ряд постачальників інфраструктури АІ вже використовують AI Workbench, включаючи Dell Technologies, Hewlett Packard Enterprise, Lambda, Lenovo та Supermicro.
Тепер з Nvidia AI Enterprise 4.0 підприємства можуть отримати доступ до інструментів, необхідних для впровадження генеративного АІ, а також інтерфейсів безпеки та прикладного програмування, необхідних для підключення їх до додатків у масштабах виробництва.
Нова версія AI Enterprise включає Nvidia NeMo, хмарну платформу для створення, навчання та розгортання LLM в повністю керованій корпоративній системі для створення додатків генеративного ШІ. Корпоративні клієнти, які бажають масштабувати та оптимізувати розгортання АІ, можуть автоматизувати його за допомогою Triton Management Service, який автоматично розгортає кілька серверів виводу в Kubernetes з оркестровкою моделей у великих масштабах.
Управління кластерами доступне через програмне забезпечення Base Command Manager Essentials, щоб максимізувати продуктивність серверів АІ в різних центрах обробки даних. Воно також може керувати використанням моделей АІ в різних хмарних системах, включаючи мультихмарні та гібридні хмари.
Стратегія охолодження ЦОД для епохи AI
0 |