`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

IBM оголосила про доступність AI-моделі Mistral з відкритим вихідним кодом на watsonx

0 
 

IBM оголосила про доступність AI-моделі Mistral з відкритим вихідним кодом на watsonx

Компанія IBM оголосила про доступність популярної відкритої великої мовної моделі Mixtral-8x7B, розробленої компанією Mistral AI, на своїй платформі watsonx AI and data. Зазначається, що цей крок продовжує розширювати можливості, які допомагають клієнтам впроваджувати інновації за допомогою власних базових моделей IBM і моделей від низки постачальників з відкритим вихідним кодом. IBM пропонує оптимізовану версію Mixtral-8x7B, яка під час внутрішнього тестування змогла збільшити пропускну спроможність - кількість даних, які можуть бути опрацьовані за певний період часу, - на 50% порівняно зі звичайною моделлю. Потенційно це може скоротити затримку на 35-75%. Це досягається внаслідок процесу, званого квантуванням, який зменшує розмір моделі та вимоги до пам'яті для LLM і, своєю чергою, прискорює обробку, допомагаючи знизити витрати та споживання енергії.

Додавання Mixtral-8x7B розширює відкриту, багатомодельну стратегію IBM, спрямовану на задоволення потреб клієнтів і надання їм вибору та гнучкості для масштабування корпоративних AI-рішень у рамках їхнього бізнесу. Завдяки дослідженням і розробкам у сфері AI, що проводяться впродовж десятиліть, відкритій співпраці з Meta і Hugging Face, а також партнерству з лідерами у сфері моделей, IBM розширює каталог моделей watsonx.ai та додає нові можливості, мови та способи роботи. Готові для підприємств базові моделі IBM та платформа watsonx AI and data дають змогу клієнтам використовувати генеративний AI для отримання нових знань і підвищення ефективності, а також для створення нових бізнес-моделей, заснованих на принципах довіри. IBM дає змогу клієнтам вибрати правильну модель для потрібних сценаріїв використання і цілей за співвідношенням ціни та якості для цільових галузей бізнесу, таких як фінанси.

Mixtral-8x7B було побудовано з використанням комбінації Sparse modeling - інноваційної техніки, що знаходить і використовує тільки найважливіші частини даних для створення більш ефективних моделей, і техніки Mixture-of-Experts, яка об'єднує різні моделі ("експертів"), що спеціалізуються на вирішенні різних частин проблеми. Модель Mixtral-8x7B широко відома своєю здатністю швидко обробляти й аналізувати величезні обсяги даних для отримання висновків, релевантних контексту.


"Клієнти вимагають вибору і гнучкості в розгортанні моделей, які якнайкраще відповідають їхнім унікальним сценаріям використання і бізнес-вимогам", - каже Карім Юсуф, доктор філософії, старший віцепрезидент з управління продуктами та зростання IBM Software. "Пропонуючи Mixtral-8x7B та інші моделі на watsonx, ми не тільки надаємо їм можливість вибору способу впровадження AI - ми розширюємо можливості надійної екосистеми розробників AI та бізнес-лідерів, надаючи їм інструменти та технології для впровадження інновацій у різних галузях і сферах".

Нагадаємо, що днями IBM також оголосила про доступність ELYZA-japanese-Llama-2-7b, японської моделі LLM з відкритим вихідним кодом від ELYZA Corporation, на watsonx. IBM також пропонує на watsonx моделі Meta з відкритим вихідним кодом Llama-2-13B-chat і Llama-2-70B-chat та інші моделі сторонніх виробників, а в найближчі кілька місяців число моделей розшириться.

Ready, set, buy! Посібник для початківців - як придбати Copilot для Microsoft 365

0 
 

Напечатать Отправить другу

Читайте также

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT