`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Вузьким місцем впровадження AI є люди та процеси

Останнім часом на пропалу цитували дослідження MIT, головний висновок (точніше, найпопулярніший) якого звучав так: «95% пілотних GenAI-проєктів у компаніях не дають віддачі». Все змінюється швидко, і вже через два місяці картина інша.

Згідно з дослідженням Wharton School і GBK Collective (жовтень 2025 року, вибірка 800 топменеджерів великих компаній з виручкою понад 50 млн дол. і штатом більш як 1000 осіб), 72% підприємств впровадили формальні системи вимірювання ROI, при цьому 74% керівників фіксують позитивну віддачу від інвестицій. Щотижневе використання AI зросло до 82% (проти 37% у 2023 році), щоденне – до 46%.

Технологія закріпилася в стандартних бізнес-процесах: аналіз даних (73%), підсумовування документів (70%), редагування текстів (68%), створення звітів (68%), генерація ідей (66%). Критичний фактор успіху – фокус на повторюваних завданнях з вимірюваним приростом продуктивності, а не на експериментальних проєктах. 66% компаній виділяють на AI понад 5 млн дол. на рік. При цьому 30% технологічного бюджету спрямовується на внутрішній R&D для створення кастомних рішень.

Проблема змістилася з технологій на людський капітал. Основні бар'єри: нестача фахівців з просунутими технічними навичками (49%), недостатня ефективність програм навчання (46%), дефіцит базової AI-грамотності (43%). Інвестиції в навчання знизилися на 8 п.п., впевненість в ефективності навчання впала на 14 п.п. 14% компаній вважають наймання нових фахівців ефективнішим, ніж перекваліфікацію наявного персоналу.

Додатковий ризик – атрофія професійних навичок співробітників при надмірному використанні AI (цим стурбовані 43% керівників, серед VP+ – 53%). 17-18% топменеджерів планують скоротити найняття стажистів і джуніорів, переосмислюючи вимоги до молодших позицій.

Лідери з впровадження AI та ROI: Tech/Telecom (94% використовують щотижня, 88% бачать позитивний ROI), Banking/Finance та Professional Services (по 83% з позитивним ROI). Відстають: Retail (63% використовують щотижня, 54% бачать ROI). За функціями лідирують IT (68% використовують щодня), HR (51%), закупівлі (52%).

Автори дослідження відзначають, що після 2023 року «досліджень» і 2024 року «експериментів» 2025 став роком «Відповідального прискорення». Вузьким місцем при цьому стали не технології, а люди та процеси.

Вузьким місцем впровадження AI є люди та процеси

Про самоаналіз великих мовних моделей

Anthropic опублікувала дослідження про здатність LLM до інтроспекції – можливості моделі аналізувати власні внутрішні стани. Методика цікава: вони записували патерни нейронної активності моделі під час обробки певних концептів (наприклад, тексту великими літерами), а потім штучно вводили ці патерни в незв'язаному контексті. Claude Opus 4.1 у 20% випадків виявляла ін'єкцію і коректно ідентифікувала концепт.

Ключова відмінність від попередніх експериментів з активаційним стирингом – модель повідомляє про виявлення аномалії до того, як починає говорити про сам концепт. У випадку з «Golden Gate Claude» модель усвідомлювала свою одержимість мостом тільки постфактум, бачачи власні відповіді. Тут розпізнавання відбувається на внутрішньому рівні обробки.

Несподівана деталь – «helpful-only» версії моделей показували кращі результати інтроспекції, ніж продакшн-варіанти. Це вказує, що процес файн-тюнінгу для безпеки може пригнічувати ці здібності. Anthropic також виявила, що моделі реагують на інсентиви («якщо подумаєш про X, отримаєш нагороду»), так само як на прямі інструкції – можливо, це загальна система управління увагою.

Звичайно, 20% – це зовсім мало і ненадійно, але, як то кажуть, ми на самому початку шляху. Якщо вам цікаво, до чого, то уточню, що інтроспекція вважається важливою (хоча і недостатньою) рисою власної свідомості. Принаймні, у людей це так.

Про самоаналіз великих мовних моделей

AI-енциклопедія від Маска

Маск запустив Grokipedia – AI-енциклопедію, яку позиціює як неупереджену альтернативу Wikipedia. На старті в новій енциклопедії близько 885 тис. статей проти 8 млн в англомовній версії Вікіпедії. Сайт працює на тій же мовній моделі, що і чатбот Grok в X, теоретично маючи доступ до постів сотень мільйонів користувачів для оновлення контенту в реальному часі.

Правда, якщо врахувати, що всі наявні великі LLM навчаються на відкритих даних і Вікіпедія є їх величезною частиною, то не дуже зрозуміло, коли це буде вивірений за новими даними контент, а коли – переписування Вікіпедії в якомусь певному ключі.

Власне, це вже і видно. Стаття про самого Маска написана захопленим тоном, описуючи його роботу в DOGE з фактичною помилкою про Вівека Рамасвамі, посилаючись при цьому на BBC і Al Jazeera, які нічого подібного не писали. Стаття про гендер починається з визначення як «бінарної класифікації на основі біологічної статі» – проти соціологічного підходу Вікіпедії.

Сайт впав через годину після запуску.

Чекаємо антисемітських статей і щось новеньке про геноцид білих в ПАР. Це ж той самий Grok, який вже видавав подібне в Twitter.

AI-енциклопедія від Маска

Перспективна OCR-система від Deepseek

Deepseek представила OCR-систему, яка стискає текст із зображень у 10 разів зі збереженням 97% інформації. Система вимагає від 64 до 800 токенів на сторінку проти тисяч у конкурентів на кшталт MinerU 2.0, який використовує більш як 6000 токенів. В основі мала модель DeepSeek3B-MoE, завдяки розміру якої продуктивність системи на одному чіпі Nvidia A100 становить близько 200 тисяч сторінок на день.

Дослідники пропонують використовувати систему для стиснення історії діалогів в чат-ботах, зберігаючи старі повідомлення в меншій роздільній здатності, як вицвітає людська пам'ять. Це концептуально новий підхід до проблеми довгого контексту в мовних моделях – не збільшувати вікно контексту нескінченно, а стискати стару інформацію з втратою частини деталей.

Андрій Карпаті з OpenAI захоплено відгукнувся про цю модель у Twitter, стверджуючи, що така обробка інформації дозволить у багато разів скоротити необхідний контекст і прискорить моделі. Зображення взагалі є більш універсальним методом передачі інформації, і головне – можна позбутися токенізаторів, які він вважає потворністю. Він, звичайно, емоційний у цьому випадку. Але ряд претензій до токенізаторів цілком виправдані – вони погано працюють з рідкісними мовами, їх треба навчати окремо, в них зустрічаються артефакти й так далі.

Якось дуже химерно виправдалося твердження репортерів «Картинка варта тисячі слів», чи не так?

Перспективна OCR-система від Deepseek

Помилилися

Цікавий ель скандаль стався в AI-спільноті. Дослідники OpenAI заявили, що GPT-5 вирішив 10 раніше нерозв'язаних задач Ердеша і просунувся ще в 11. Менеджер компанії Кевін Вейл написав у твіттері, що модель знайшла розв'язання проблем, відкритих (open) десятиліттями. Формулювання передбачало, що GPT-5 самостійно довів складні теореми теорії чисел – потенційний науковий прорив.

Математик Томас Блум, який веде сайт erdosproblems.com, спростував заяву. Слово «open» на його сайті означає лише те, що він особисто не знає рішення, а не те, що завдання дійсно залишається невирішеним. Тож GPT-5 просто знайшов дослідження, які Блум пропустив. Деміс Хассабіс назвав епізод «embarrassing», Ян ЛеКун уїдливо зауважив, що OpenAI потрапила у власну пастку хайпу.

Твіти в результаті видалили, дослідники визнали помилку. В цілому, це тільки доводить, що в OpenAI працюють нормальні люди. Точніше – такі ж, як і скрізь. Хіба що житлове питання їх навряд чи псує.

Помилилися

Хактивісти зламали F5 Networks

F5 Networks повідомляє, що стала жертвою злому з боку хакерів, пов'язаних з національними державами. Зловмисники отримали довгостроковий доступ до середовища розробки продукту BIG-IP і викрали вихідний код, а також інформацію про невиправлені вразливості. BIG-IP використовується для управління трафіком додатків, і розробник особливо підкреслює – 48 з 50 найбільших компаній Fortune 50 використовують його рішення.

Іронія ситуації в тому, що компанія сама спеціалізується на кібербезпеці. Правда, F5 наполягає, що supply chain не скомпрометований і шкідливий код не був впроваджений в їх продукти.

Масштаб проблеми ілюструється реакцією – злом виявлено 9 серпня, але публічне розкриття інциденту було відкладено більш ніж на місяць на вимогу Мін'юсту США. Урядові органи США і Великобританії вже випустили відповідні рекомендації для користувачів.

F5 випустила оновлення для всіх продуктів і стверджує, що немає ознак використання вкрадених вразливостей в атаках. Але коли nation-state actors отримують таку інформацію, вони зазвичай не поспішають світитися.

Хактивісти зламали F5 Networks

AI як загроза біобезпеці

Команда Microsoft під керівництвом головного наукового співробітника Еріка Хорвіца опублікувала в Science дослідження про «вразливість нульового дня» в системах біобезпеки. Використовуючи генеративні AI-моделі для дизайну білків (включаючи власну EvoDiff), вони показали, як можна змінити структуру токсину достатньо, щоб обійти screening комерційних виробників ДНК, але зберегти токсичність. Ці системи порівнюють вхідні замовлення з базою відомих токсинів і патогенів – близький збіг повинен викликати тривогу.

Якщо що, це та ж технологія, на якій будуються добре фінансовані стартапи з пошуку нових ліків на зразок Generate Biomedicines і Isomorphic Labs.

Microsoft особливо виділяє – дослідження було повністю цифровим, ніяких реальних токсичних білків не виробляли, щоб уникнути звинувачень у розробці біозброї. Код не розкривається і не називають конкретні протестовані білки. Компанія попередила уряд США і виробників софта до публікації, патчі випущені.

Але, в цілому, не дуже дивний результат, тому в статті цитуються висловлювання про початок гонки озброєнь і так далі.

AI як загроза біобезпеці

Що приніс OpenAI DevDay

Закінчилася презентація, яка відкривала OpenAI DevDay, тож можна коротко оглянути представлені новинки.

Codex, той, що в хмарі, став загальнодоступним. Компанія представила AgentKit для створення AI-агентів, ChatKit для вбудовування чату в додатки та App SDK для інтеграції сторонніх сервісів на кшталт Spotify, Coursera та Canva прямо в ChatGPT.

Найсимпатичнішим виглядає AgentKit, в якому є Agent Builder – інтерфейс для створення агентів прямо в браузері, використовуючи вбудовані блоки і функції. У сервісів типу n8n або make тепер є можливість оптимістично розповісти, що їхній бізнес нікуди не дінеться, навпаки, OpenAI привчить так будувати агентів дуже велику аудиторію.

В API тепер з'явиться доступ до GPT-5 Pro і Sora2. А всього у ChatGPT 800 млн користувачів на тиждень.

OpenAI представила AgentKit для створення AI-агентів та інші новинки

Tinker для налаштування AI-моделей

Thinking Machines Lab Мири Мураті запустила свій перший продукт – Tinker, інструмент для автоматизації fine-tuning передових AI-моделей через API. Компанія залучила 2 млрд дол. seed-інвестицій при оцінці 12 млрд дол. ще до релізу. Команда – це ключові вихідці з OpenAI: Джон Шульман, який вів роботу над fine-tuning ChatGPT через reinforcement learning, Баррет Зоф (колишній VP досліджень), Ліліан Венг та інші.

Tinker обіцяє демократизувати те, що раніше вимагало кластерів GPU і спеціальної експертизи. Бета-тестери відзначають, що аналоги існують (VERL, SkyRL), але Tinker краще балансує між абстракцією і контролем.

Ось тепер гадайте – 12 млрд дол. оцінка до продукту – це була тільки ставка на команду або ось ця лінія на fine-tuning відкритих моделей представлялася інвесторам з самого початку? І заодно оцініть, що Міра менше ніж за рік дійшла до робочого продукту, а чим переконав своїх інвесторів Ілля Суцкевер широкій громадськості так поки і не відомо.

Tinker для налаштування AI-моделей

Skynet все ближче

Google DeepMind публікує третю ітерацію Frontier Safety Framework – найдетальнішу версію системи оцінки ризиків від просунутих AI-моделей. Головне нововведення – Critical Capability Level для harmful manipulation, коли модель може систематично змінювати переконання і поведінку людей в критично важливих контекстах.

Компанія фактично визнає можливість втрати контролю над моделями. У документі прямо йдеться про сценарії, де «неправильно налаштовані моделі штучного інтелекту можуть перешкоджати операторам керувати, змінювати або припиняти свої операції». Раніше це обговорювалося як щось гіпотетичне – тепер же в документі розроблені конкретні протоколи для моделей, які здатні розвинутися до потенційно небезпечного рівня.

Фреймворк описує і протоколи тестування нових моделей – причому не тільки перед оприлюдненням моделей на публіку, але і масштабних внутрішніх розгортаннях. Тобто визнається можливість проблем з моделями і при їх тестовій експлуатації всередині компанії.

Загалом, до деплою Skynet готові.

Skynet все ближче

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT