0 |
Цікавий огляд коментарів на тему запуску OpenAI o3. Модель показує разючі результати – наприклад, 88% у тесті ARC-AGI проти 32% в o1, і 25% у складному математичному тесті, де інші моделі не набирали більш як 2%.
Щоправда, ця продуктивність досягається ціною величезних обчислювальних витрат – понад $1000 на одне завдання проти $5 в o1. На повному тесті ARC-AGI o3 low використала ресурсів на $10000 і набрала лише на 12% менше балів, ніж o3 high, що використала в 172 рази більше обчислювальних ресурсів (ціну їм ще не склали).
Це порушує питання про практичне застосування таких моделей – навряд чи o3 стане повсякденним інструментом як GPT-4. Швидше за все, це буде спеціалізований інструмент для складних завдань, доступний тільки організаціям з великими бюджетами. OpenAI вже пропонує тариф $200 для версії o1 pro (яка дійсно дуже круто працює) і навіть ходять чутки про певний тариф Ultra з вартістю до $2000.
Утім, індустрія бачить великий потенціал у цьому підході – масштабуванні обчислень під час генерації відповіді. Джек Кларк з Anthropic вважає, що у 2025 році прогрес AI прискориться навіть порівняно з 2024 роком завдяки комбінації традиційного масштабування і test-time scaling. А виробники спеціалізованих AI-чіпів, як Groq або Cerebras, можуть зробити такий підхід доступнішим.
Яким чином далі підвищувати продуктивність AI?
Комп’ютерний розум: генеративний штучний інтелект у рішеннях AWS
0 |