OpenAI презентувала нові моделі o3 та o3-mini

23 декабрь, 2024 - 11:45
Компанія OpenAI офіційно анонсувала в рамках «12 днів OpenAI» новий набір моделей o3 і o3 mini, які прийшли на зміну o1 і o1-mini.
 
Зазначається, що скачок у версіях обумовлено тим, щоб уникнути проблем з авторськими правами з компанією мобільного звʼязку O2.
 
Генеральний директор OpenAI Сема Альтмана (Sam Altman) заявив, що дві нові моделі спочатку будуть випущені для тестування безпеки для обраних користувачів - o3-mini до кінця січня 2025 року, а o3 після цього.
 
«Ми розглядаємо цей анонс, як початок наступного етапу розвитку АІ, коли ці моделі можна буде використовувати для все більш складних завдань, що вимагають багато міркувань. В останній день цього заходу ми подумали, що було б цікаво перейти від однієї граничної моделі до наступної граничної моделі», заявив Сем Альтман.
 
Голова OpenAI також зазначив, що модель o3 перевершує навіть продуктивність o1 в задачах програмування - на 22,8% в тесті SWE-Bench Verified.
 
Анонсована модель також встановлює нові рекорди на таких складних тестах, як EpochAI's Frontier Math, вирішуючи 25,2% завдань, де жодна інша модель не перевищує 2%. 
 
Компанія представила нові дослідження з деліберативного вирівнювання - методу, який допоміг зробити o1 найбільш надійною і вивіреною моделлю на сьогоднішній день. Цей метод вбудовує специфікації безпеки, написані людьми, в моделі, що дозволяє їм чітко міркувати про ці політики перед тим, як генерувати відповіді. Стратегія спрямована на вирішення загальних проблем безпеки в LLM, таких як вразливість до атак на джейлбрейк і надмірна відмова від доброзичливих підказок, шляхом оснащення моделей міркуваннями за принципом ланцюга думок.
 
Результати, якими поділилися дослідники OpenAI в новій, не рецензованій статті, вказують на те, що цей метод покращує показники безпеки, зменшує кількість шкідливих результатів і забезпечує краще дотримання рекомендацій щодо контенту та стилю.
 
Основні висновки підкреслюють переваги моделі o1 порівняно з попередниками, такими як GPT-4o та іншими сучасними моделями. Деліберативне вирівнювання дозволяє серіям o1 відмінно протистояти джейлбрейкам і забезпечувати безпечне завершення, мінімізуючи надмірну кількість відмов на доброякісні підказки. Крім того, метод полегшує узагальнення поза розповсюдженням, демонструючи стійкість до багатомовних і закодованих сценаріїв джейлбрейку. Ці вдосконалення відповідають меті OpenAI - зробити системи штучного інтелекту безпечнішими та зрозумілішими в міру зростання їхніх можливостей.