Преодолев сомнения, исследовательская лаборатория OpenAI всё-таки решила выпустить полную версию своей системы искусственного интеллекта, предназначенной для создания текстов.
Анонс этой системы под названием GPT-2 состоялся в феврале этого года, но тогда OpenAI ограничилась выпуском менее сложной её версии из опасения, что она может превратиться в инструмент распространения фейковых новостей, спама и дезинформации. В посте блога на этой неделе OpenAI заявила, что за прошедший испытательный период не было выявлено убедительных свидетельств вредоносного применения данной программы, поэтому было принято решение о публикации полнофункционального варианта GPT-2.
Система GPT-2 является представителем нового поколения интеллектуальных программ, обладающих впечатляющей экспертов способностью с минимальными подсказками генерировать удобочитаемый текст.
Используемая в GPT-2 модель была обучена на восьми миллионах текстовых документов из Интернета. Она работает, реагируя на фрагменты текста, предоставляемые пользователями. Например, в ответ на произвольный заголовок, GPT-2 может скомпоновать соответствующую ему новость, или завершить четверостишие по первой строке.
Лучший способ составить мнение о степени эффективности GPT-2 это опробовать её, воспользовавшись веб-версией, размещённой по адресу TalkToTransformer.com. По отзывам, наибольшие проблемы модель ИИ испытывает с последовательным использованием имён и других характеристик персонажа на протяжении всего текста, также ей трудно придерживаться одной темы в новостном материале.
Лаборатория сообщила, что созданные её сотрудниками автоматические детекторы могут обнаруживать содержимое, сгенерированное GPT-2, с вероятностью около 95%. Это означает, что автоматические фильтры фейковых материалов для повышения эффективности следует дополнять контролёрами-людьми.
OpenAI планирует продолжать следить за тем, как сообщество и широкая публика используют GPT-2. На основании этого она будет совершенствовать политики ответственной публикации исследований искусственного интеллекта.