Liquid AI повідомила про випуск свого першого набору генеративних моделей штучного інтелекту, які побудовані на принципово новій архітектурі.
Нові моделі Liquid Foundation Models (LFM), як стверджується, забезпечують високу продуктивність, яка знаходиться на одному рівні або навіть перевершує деякі з найкращих великих мовних моделей.
Стартап, що базується в Бостоні, заснувала команда дослідників з Массачусетського технологічного інституту, серед яких Рамін Хасані (Ramin Hasani), Матіас Лехнер (Mathias Lechner), Александр Аміні (Alexander Amini) та Даніела Рус (Daniela Rus). Вважається, що ця група є піонерами в концепції «liquid neural networks» - класу моделей штучного інтелекту, які суттєво відрізняються від моделей на основі генеративних попередньо навчених трансформаторів, які використовує OpenAI та Google.
Зазначається, що АІ-системи на основі LFM можуть працювати в будь-якому масштабі - від периферії мережі до розгортання на рівні підприємства.
За словами Liquid, її LFM представляють нове покоління систем штучного інтелекту, які розроблені з урахуванням продуктивності та ефективності. Вони використовують мінімум системної пам'яті, забезпечуючи при цьому виняткову обчислювальну потужність, пояснюють у компанії.
LFM базуються на новітній архітектурі Liquid Neural Network, яка була розроблена в Лабораторії комп'ютерних наук і штучного інтелекту Массачусетського технологічного інституту. В основі LNN лежить концепція штучних нейронів, або вузлів для перетворення даних.
У той час як традиційні моделі глибинного навчання потребують тисячі нейронів для виконання обчислювальних завдань, LNN можуть досягти тієї ж продуктивності зі значно меншою кількістю вузлів.
У Liquid AI стверджують, що їхні LFM зберігають адаптивну та ефективну здатність, що дозволяє їм виконувати коригування в режимі реального часу без величезних обчислювальних накладних витрат, пов'язаних з традиційними LLM. Як результат, вони можуть ефективно обробляти до 1 мільйона токенів без будь-якого помітного впливу на використання пам'яті.
Liquid AI представила сімейство з трьох моделей, включаючи LFM-1B з 1,3 мільярдами параметрів, призначеною для середовищ з обмеженими ресурсами. Трохи потужніша LFM-3B має 3,1 мільярда параметрів і призначена для периферійних розгортань, таких як мобільні додатки, роботи і дрони. Нарешті, LFM-40B - більш потужна модель з 40,3 мільярдами параметрів, яка призначена для розгортання на хмарних серверах для обробки найскладніших сценаріїв використання.
Стартап наголошує, що його нові моделі вже продемонстрували «найсучасніші результати» в низці важливих тестів АІ, зазначаючи, що їх розробки стають грізними конкурентами існуючим моделям генеративного АІ, таким як ChatGPT.
З точки зору продуктивності, LFM продемонстрували вражаючі результати, причому LFM-1B перевершив трансформаторні моделі в тій же розмірній категорії. Водночас LFM-3B добре протистоїть таким моделям, як Phi-3.5 від Microsoft Corp. і сімейство Llama від Meta Platforms. Що стосується LFM-40B, то його ефективність така, що вона може навіть перевершити більші моделі, зберігаючи при цьому неперевершений баланс між продуктивністю та ефективністю.
Компанія робить свої моделі доступними у ранньому доступі через такі платформи, як Liquid Playground, Lambda - через інтерфейси чату та API - та Perplexity Labs.
Про DCIM у забезпеченні успішної роботи ІТ-директора