Amazon Web Services повідомила про розширення розробок у сфері розробки програмного забезпечення для штучного інтелекту, випустивши кілька нових інструментів для генеративного навчання АІ на своїй хмарній платформі.
У своєму блозі компанія детально описала нові пропозиції, які включають можливість створювати і навчати фундаментальні моделі, які є великомасштабними, попередньо навченими мовними моделями, що створюють основу для цільових завдань обробки природної мови.
Використання попередньо навчених базових моделей може заощадити розробникам значну кількість часу і ресурсів, які в іншому випадку знадобилися б для навчання мовної моделі з нуля. GPT від OpenAI прикладом фундаментальної моделі, яку можна використовувати для генерації тексту, аналізу настрою та мовного перекладу.
Bedrock від AWS - це новий сервіс, який робить моделі фундаменту з різних джерел доступними через інтерфейс прикладної програми. Вони включають багатомовні великі мовні моделі Jurassic-2 від AI21 Labs - які генерують текст іспанською, французькою, німецькою, португальською, італійською та голландською мовами, а також Claude LLM від Anthropic PBC, який виконує різноманітні розмовні завдання та завдання з обробки тексту на основі принципів відповідального навчання ШІ-систем.
Фундаментальні моделі проходять попереднє навчання в масштабах Інтернету, тому їх можна налаштувати з відносно невеликим додатковим навчанням, написав Свамі Сівасубраманіан (Swami Sivasubramanian), віце-президент з баз даних, аналітики та машинного навчання в AWS. Він навів приклад менеджера з контент-маркетингу модного ритейлера, який може надати Bedrock всього 20 прикладів ефективних слоганів "з минулих кампаній разом з відповідними описами продуктів, і Bedrock автоматично почне генерувати ефективні рекламні оголошення".
AWS також запускає дві нові великі мовні моделі під брендом Titan. Перша - це генеративний LLM для узагальнення, генерації тексту, класифікації, відкритих запитань і відповідей та вилучення інформації. Другий - це LLM, який переводить вхідні текстові дані в числові представлення, що містять семантичне значення тексту і корисні для створення контекстних відповідей, які виходять за рамки зіставлення слів.
Як підкреслюють експерти, AWS слідом за Microsoft та Google виводить на ринок власний великий LLM, але це не повинно розглядатися як конкурентна перевага.
AWS також посилює апаратне забезпечення, яке використовує для навчання та виведення даних у своїй хмарі. Нові, оптимізовані для роботи в мережі екземпляри EC2 Trn1n, які включають власні процесори Trainium та Inferentia2, тепер забезпечують 1600 гігабіт на секунду пропускної здатності мережі, або приблизно 20% приросту продуктивності. Екземпляри Inf2 компанії, які використовують Inferentia2 для виведення висновків великомасштабних генеративних додатків АІ з моделями, що містять сотні мільярдів параметрів, також стали загальнодоступними.
Ще одне оголошення про доступність - CodeWhisperer, компаньйон для кодування АІ, який використовує фундаментальну модель для генерування пропозицій коду в режимі реального часу на основі коментарів природною мовою та попереднього коду в інтегрованому середовищі розробки. Інструмент працює з Python, Java, JavaScript, TypeScript C# та 10 іншими мовами і доступний з різних IDE.
"Розробники можуть просто сказати CodeWhisperer виконати завдання, наприклад, "розібрати рядок пісень у форматі CSV" і попросити його повернути структурований список, заснований на таких значеннях, як виконавець, назва і найвища позиція в чарті", - пише Сівасубраманіан. CodeWhisperer генерує "цілу функцію, яка аналізує рядок і повертає список, як зазначено". За його словами, розробники, які використовували попередню версію, повідомили про підвищення швидкості на 57% і на 27% кращий показник успішності, ніж при роботі без інструменту.