`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Свідчення Суцкевера щодо звільнення Сема Альтмана з OpenAI

Цікаві деталі спливли під час свідчень Іллі Суцкевера про події 2023 року, пов'язані зі звільненням Сема Альтмана з OpenAI. Матеріал TheInformation зосередився на гучній темі – виявляється, на той момент обговорювалося злиття з Anthropic. Втім, ось вам повний виклад свідчень, які Ілля дав в рамках позову Ілона Маска до Альтмана. Процес тривав майже 10 годин в офісі юридичної компанії Cooley в Сан-Франциско в присутності представників всіх сторін конфлікту: адвокати позивачів з команди Ілона Маска, захисники OpenAI, представники Microsoft і власні юристи Суцкевера.

У центрі уваги опинився меморандум на п'ятдесят дві сторінки, який Суцкевер склав восени 2023 року для незалежних директорів правління OpenAI. Цей документ починався з жорсткого звинувачення: Сем демонструє послідовну модель брехні, підриву своїх керівників і нацьковування керівників один проти одного. Суцкевер підтвердив, що це була його думка на той момент, і він направив документ тільки трьом незалежним директорам – Адаму Д'Анджело, Хелен Тонер і Таші Маколі.

Суцкевер пояснив, що використовував електронну пошту що зникає для відправлення меморандуму, оскільки побоювався витоку. На питання, чому він не надіслав документ всьому правлінню, включаючи самого Альтмана, Суцкевер відповів прямо: він відчував, що якщо Альтман дізнається про ці обговорення, то просто знайде спосіб змусити їх зникнути. Адам Д'Анджело попросив його підготувати документ, попередньо запитавши, чи є у Суцкевера скріншоти на підтвердження його побоювань щодо поведінки Альтмана.

Меморандум містив безліч конкретних звинувачень. Одне з них стосувалося історії Альтмана в Y Combinator. Згідно з документом, Сема виштовхнули з YC за схожу поведінку – він створював хаос, починав безліч нових проєктів, нацьковував людей один проти одного і погано керував компанією. Однак при детальному розпитуванні з'ясувалося, що ця інформація надійшла до Суцкевера не безпосередньо: її передала Міра Мураті з посиланням на розмову з Бредом Лайткепом. Суцкевер визнав, що сам не розмовляв з Лайткепом, щоб перевірити ці відомості.

Аналогічна ситуація склалася і з твердженнями про Грега Брокмана. У меморандумі йшлося про те, що Грег був по суті звільнений зі Stripe. Джерелом знову була Міра Мураті. Суцкевер підтвердив, що ніколи не звертався до самого Брокмана, щоб перевірити цю інформацію. На питання, чому він не зробив цього, Суцкевер дав просту відповідь: йому це не спало на думку. Він повністю вірив інформації, яку надавала йому Міра.

Меморандум містив цілий розділ під назвою «Нацьковування людей один проти одного». Там наводилися приклади нібито маніпулятивної поведінки Альтмана: Даніела проти Міри, маючи на увазі Даніелу Амодей і Міру Мураті, і Даріо проти Грега та Іллі, де йшлося про Даріо Амодей. Суцкевер критикував Альтмана за те, що той не зайняв тверду позицію, коли Даріо хотів очолити всі дослідження в OpenAI та домогтися звільнення Грега. При цьому Суцкевер визнав, що не має точної інформації про умови Даріо, але його загальне враження було таким, що вони були несправедливими й Сем повинен був відкинути їх відразу.

Ще один епізод стосувався історії з GPT-4 Turbo і порадою щодо безпеки розгортання. Меморандум звинувачував Альтмана у брехні Мірі щодо думки Джейсона – судячи з усього, Джейсона Квона, який на той момент, можливо, обіймав посаду генерального юрисконсульта. Суцкевер не говорив з Квоном про цю ситуацію. Щобільше, він визнав, що заднім числом усвідомив критичну важливість інформації з перших рук для таких питань. На питання, чи було помилкою покладатися на інформацію з других рук, Суцкевер відповів філософськи: інформація з других рук може бути дуже корисною, але вона є запрошенням для подальшого розслідування.

У меморандумі Суцкевер пропонував директорам поговорити з певними людьми для перевірки інформації, включаючи Боба МакГрю і Ніка Райдера. Однак сам він не знає, чи дотрималися директори цих рекомендацій, і не обговорював з ними продовження цих пропозицій. Він також не розмовляв з Діаною Юн або іншими свідками, згаданими в документі. Більшість скріншотів та інформації для меморандуму Суцкевер отримав від Міри Мураті, включаючи скріншоти текстових повідомлень між Грегом і Семом і навіть службову оцінку Міри щодо Сема.

Потім розмова перейшла до подій листопада 2023 року. Суцкевер визнав, що вважав звільнення правильним кроком. Адвокат позивачів процитував статтю з Wall Street Journal, де йшлося про те, що Суцкевер чекав моменту, коли динаміка правління дозволить замінити Альтмана на посаді генерального директора. Суцкевер підтвердив правильність цього твердження. Він пояснив, що чекав, поки більшість правління не буде очевидно дружньою до Сема. Це сталося після серії швидких відходів з правління з різних причин.

На пряме запитання, як довго він розглядав можливість звільнення Альтмана, Суцкевер відповів: принаймні рік. Він уточнив, що слово «планування» було б неправильним, тому що до певного моменту це не здавалося здійсненним. Раніше це було неможливо, тому він не планував. Але він розглядав цю можливість щонайменше протягом року до подій листопада.

Події після звільнення Альтмана розвивалися стрімко. Суцкевер визнав, що був вражений реакцією співробітників OpenAI. Та ж стаття в Wall Street Journal стверджувала, що він очікував, що співробітники зрадіють. Суцкевер уточнив: він не очікував, що вони зрадіють, але й не очікував, що вони матимуть сильні почуття в будь-яку сторону. Це було його переконання на той момент.

Одним з найдраматичніших моментів свідчень стало обговорення пропозиції про злиття з Anthropic. У суботу після звільнення Альтмана відбувся дзвінок правління, на якому Хелен Тонер розповіла про контакт з Anthropic. Суцкевер не був упевнений, хто ініціював контакт – Хелен звернулася до Anthropic або Anthropic зв'язалися з Хелен. Але суть пропозиції була зрозуміла: Anthropic хотіла об'єднатися з OpenAI та взяти на себе її керівництво.

Потім відбувся окремий дзвінок з керівництвом Anthropic. На ньому були присутні Даріо Амодеї, Даніела Амодеї і як мінімум ще одна людина, яку Суцкевер не запам'ятав. Anthropic висловила ентузіазм з приводу злиття, але також згадала про практичні труднощі, які у них виникнуть. Суцкевер був вкрай незадоволений цією пропозицією. На питання, чому, він дав коротку відповідь: він просто не хотів цього. Інші члени правління були набагато більш прихильними, і Суцкевер згадав, що Хелен Тонер була найбільш зацікавлена в злитті. Пропозиція не була реалізована через ті самі практичні перешкоди, про які говорила Anthropic, але обговорення були вкрай короткими.

Контекст цієї пропозиції набував додаткових вимірів при розгляді зв'язків Хелен Тонер. Вона була пов'язана з Open Philanthropy, яка, своєю чергою, пов'язана з Холденом Карнофскі. Холден одружений з Даніелою Амодеї, сестрою Даріо Амодеї, які обидва працюють в Anthropic. Суцкевер підтвердив знання про ці зв'язки, хоча зазначив, що його знання було розпливчастим.

Ще одна історія стосувалася статті Хелен Тонер, опублікованої в жовтні 2023 року. Суцкевер згадав, що вона критикувала OpenAI та хвалила Anthropic. Він не пам'ятав конкретного змісту критики, але запам'ятав, що стаття хвалила Anthropic. Його реакцією було: він вважав статтю дивною. Він вважав дивним, що вона взагалі це зробила. На питання, чи вважав він це доречним для члена правління OpenAI, Суцкевер відповів, що вважав це не дуже далеким від очевидно недоречного. Він обговорював із Семом можливість попросити Гелен покинути правління, хоча не пам'ятав деталей цієї розмови.

Пізніше того ж тижня правління погодилося піти у відставку і поновити Сема Альтмана. Адвокат OpenAI запитала Суцкевера про оцінку процесу, що передував звільненню. Суцкевер сказав одну річ, яку може стверджувати однозначно: процес був поспішним. Причиною поспіху було те, що правління було недосвідченим у питаннях управління радою директорів.

На зустрічі з членами правління та виконавчою командою після звільнення Альтмана керівники заявили, що якщо Сем не повернеться, OpenAI буде знищена, і це несумісно з місією компанії. Хелен Тонер відповіла, що це сумісно, причому сказала це навіть більш прямо, ніж передав сам Суцкевер. На питання про його реакцію на цю заяву, Суцкевер сказав, що не пам'ятає своєї реакції в той момент. Пізніше його запитали, чи вважав він, що знищення компанії було б сумісно з місією. Суцкевер відповів, що може уявити гіпотетичні екстремальні обставини, в яких відповідь була б позитивною, але в той конкретний момент часу відповідь для нього була однозначно негативною.

Після цих подій було сформовано спеціальний комітет правління для розслідування. Його очолили Брет Тейлор і Ларрі Саммерс, які найняли юридичну фірму WilmerHale. Вони проводили інтерв'ю, включаючи бесіду з самим Суцкевером. На питання, чи є у нього підстави сумніватися в незалежності Тейлора і Саммерса, Суцкевер відповів негативно. Однак на питання про цілісність розслідування він зауважив, що на той момент був занадто відсторонений від цих процедур, щоб давати оцінку.

Суцкевер покинув OpenAI в травні 2024 року, хоча точної дати не пам'ятав. Причиною відходу стало велике нове бачення, яке здавалося більш відповідним для нової компанії. У 2024 році він оголосив про створення Safe Superintelligence. Мета нової компанії – займатися новим і іншим видом досліджень. У нього з'явилася нова ідея, як робити речі, і він хотів спробувати їх реалізувати.

Значна частина допиту була присвячена фінансовим питанням. Суцкевер підтвердив, що на момент відходу з OpenAI у нього була частка в капіталі компанії. Ця частка у нього зберігається досі, і її вартість збільшилася з моменту його відходу. Однак коли адвокат позивачів спробував дізнатися конкретну вартість цієї частки, адвокат Суцкевера дав вказівку не відповідати на питання про суму, пославшись на право клієнта на конфіденційність фінансової інформації. Суцкевер міг підтвердити наявність фінансової зацікавленості, але не міг її кількісно визначити.

Це призвело до напруженого обміну репліками між адвокатами. Представник позивачів наполягав, що питання про фінансову зацікавленість свідка в відповідачі у справі, де відповідач звинувачується в багатомільйонних позовах, безсумнівно є релевантним і стосується питань інтересу та упередженості. Адвокат Суцкевера зберіг свою позицію, дозволивши підтвердити наявність інтересу, але не його розмір.

Питання про оплату юридичних послуг також викликало інтерес. Суцкевер сказав, що, ймовірно, його юридичні послуги оплачує OpenAI, тому що не знає, хто ще це міг би робити. Він не отримував рахунків за юридичну допомогу. Його запитали, як він прийшов до цих адвокатів. Спочатку адвокат дав вказівку не відповідати, але потім дозволив відповісти конкретно на питання про наймання у зв'язку з цією судовою справою. Суцкевер розповів, що його спогади не зовсім точні, але він вважає, що почав працювати з іншим адвокатом у фірмі Willkie, а потім його тодішня подруга знайшла Сімону Агнолуччі, і він сам зв'язався з нею.

Суцкевер підтвердив, що ніколи не обговорював цю судову справу з кимось в OpenAI та не обговорював свої свідчення з кимось, крім своїх адвокатів. Він востаннє розмовляв із Семом Альтманом близько десяти місяців або року тому – приблизно в січні 2025 року. З Грегом Брокманом він розмовляв востаннє близько року з чвертю тому. Він ніколи не обговорював судову справу ні з Альтманом, ні з Брокманом.

Під час допиту з'ясувалося, що існує ще один документ – меморандум про Грега Брокмана, аналогічний тому, що був складений про Альтмана. Суцкевер підтвердив, що склав такий документ і надіслав його правлінню. На питання, чи існує версія цього документа десь у будь-якій формі, його адвокат заперечила і дала вказівку не відповідати щодо документів, які він міг надати своїм власним адвокатам. Суцкевер сказав, що знає, що його адвокати мають копію, але потім отримав вказівку не відповідати на питання про те, що він дізнався від своїх адвокатів про те, хто ще може мати копію.

Це призвело до ще одного напруженого обміну. Адвокат позивачів наполягав, що дізнався про існування меморандуму про Брокмана вперше під час цих свідчень, що документ не був наданий, хоча на нього є посилання в загальнодоступних джерелах і в одному з використаних експонатів. Адвокат Суцкевера заперечувала, що документ був згаданий в експонаті, який використовували самі позивачі, що вони знали про його існування, що були широкі обговорення про те, які документи будуть і не будуть надані, і що меморандум ніколи не запитувався і не підпадає під запити про надання документів. Вона наполягала, що якщо вони хотіли меморандум, вони повинні були запросити його до цього дня. Представник позивачів не погодився і заявив, що вони мають намір звернутися до суду з цього питання. Адвокат Суцкевера зробила заяву для протоколу, що вони не згодні викликати свідка повторно.

Наприкінці свідчень, вже близько восьмої вечора, адвокат OpenAI поставила філософське запитання про те, хто, на думку Суцкевера, повинен керувати штучним загальним інтелектом. Суцкевер дав розлогу відповідь. Його поточна думка полягає в тому, що за дуже рідкісними винятками людина, яка буде керувати, швидше за все, буде дуже вправною у поводженні з владою. І це буде дуже схоже на вибір між різними політиками. Він вважає, що дуже важко для когось, кого можна назвати святим, домогтися цього. Він думає, що це варто спроби, але це буде як вибір між різними політиками – хто буде главою держави.

По завершенні допиту адвокат позивачів заявив для протоколу, що вважає свідчення незавершеними через ненадані документи, включаючи меморандум про Брокмана, і через відмову відповідати на питання про фінансові інтереси свідка. Адвокат OpenAI зробила окрему заяву про те, що багато експонатів, показаних свідку, були попередньо виділені маркером, хоча захисту передавалися невиділені копії, і що жодне виділення в документах не є оригінальним для цих документів. Вона зарезервувала всі права з цього приводу, і до цього заперечення приєднався адвокат Microsoft.

Свідчення Суцкевера щодо звільнення Сема Альтмана з OpenAI

Вузьким місцем впровадження AI є люди та процеси

Останнім часом на пропалу цитували дослідження MIT, головний висновок (точніше, найпопулярніший) якого звучав так: «95% пілотних GenAI-проєктів у компаніях не дають віддачі». Все змінюється швидко, і вже через два місяці картина інша.

Згідно з дослідженням Wharton School і GBK Collective (жовтень 2025 року, вибірка 800 топменеджерів великих компаній з виручкою понад 50 млн дол. і штатом більш як 1000 осіб), 72% підприємств впровадили формальні системи вимірювання ROI, при цьому 74% керівників фіксують позитивну віддачу від інвестицій. Щотижневе використання AI зросло до 82% (проти 37% у 2023 році), щоденне – до 46%.

Технологія закріпилася в стандартних бізнес-процесах: аналіз даних (73%), підсумовування документів (70%), редагування текстів (68%), створення звітів (68%), генерація ідей (66%). Критичний фактор успіху – фокус на повторюваних завданнях з вимірюваним приростом продуктивності, а не на експериментальних проєктах. 66% компаній виділяють на AI понад 5 млн дол. на рік. При цьому 30% технологічного бюджету спрямовується на внутрішній R&D для створення кастомних рішень.

Проблема змістилася з технологій на людський капітал. Основні бар'єри: нестача фахівців з просунутими технічними навичками (49%), недостатня ефективність програм навчання (46%), дефіцит базової AI-грамотності (43%). Інвестиції в навчання знизилися на 8 п.п., впевненість в ефективності навчання впала на 14 п.п. 14% компаній вважають наймання нових фахівців ефективнішим, ніж перекваліфікацію наявного персоналу.

Додатковий ризик – атрофія професійних навичок співробітників при надмірному використанні AI (цим стурбовані 43% керівників, серед VP+ – 53%). 17-18% топменеджерів планують скоротити найняття стажистів і джуніорів, переосмислюючи вимоги до молодших позицій.

Лідери з впровадження AI та ROI: Tech/Telecom (94% використовують щотижня, 88% бачать позитивний ROI), Banking/Finance та Professional Services (по 83% з позитивним ROI). Відстають: Retail (63% використовують щотижня, 54% бачать ROI). За функціями лідирують IT (68% використовують щодня), HR (51%), закупівлі (52%).

Автори дослідження відзначають, що після 2023 року «досліджень» і 2024 року «експериментів» 2025 став роком «Відповідального прискорення». Вузьким місцем при цьому стали не технології, а люди та процеси.

Вузьким місцем впровадження AI є люди та процеси

Про самоаналіз великих мовних моделей

Anthropic опублікувала дослідження про здатність LLM до інтроспекції – можливості моделі аналізувати власні внутрішні стани. Методика цікава: вони записували патерни нейронної активності моделі під час обробки певних концептів (наприклад, тексту великими літерами), а потім штучно вводили ці патерни в незв'язаному контексті. Claude Opus 4.1 у 20% випадків виявляла ін'єкцію і коректно ідентифікувала концепт.

Ключова відмінність від попередніх експериментів з активаційним стирингом – модель повідомляє про виявлення аномалії до того, як починає говорити про сам концепт. У випадку з «Golden Gate Claude» модель усвідомлювала свою одержимість мостом тільки постфактум, бачачи власні відповіді. Тут розпізнавання відбувається на внутрішньому рівні обробки.

Несподівана деталь – «helpful-only» версії моделей показували кращі результати інтроспекції, ніж продакшн-варіанти. Це вказує, що процес файн-тюнінгу для безпеки може пригнічувати ці здібності. Anthropic також виявила, що моделі реагують на інсентиви («якщо подумаєш про X, отримаєш нагороду»), так само як на прямі інструкції – можливо, це загальна система управління увагою.

Звичайно, 20% – це зовсім мало і ненадійно, але, як то кажуть, ми на самому початку шляху. Якщо вам цікаво, до чого, то уточню, що інтроспекція вважається важливою (хоча і недостатньою) рисою власної свідомості. Принаймні, у людей це так.

Про самоаналіз великих мовних моделей

AI-енциклопедія від Маска

Маск запустив Grokipedia – AI-енциклопедію, яку позиціює як неупереджену альтернативу Wikipedia. На старті в новій енциклопедії близько 885 тис. статей проти 8 млн в англомовній версії Вікіпедії. Сайт працює на тій же мовній моделі, що і чатбот Grok в X, теоретично маючи доступ до постів сотень мільйонів користувачів для оновлення контенту в реальному часі.

Правда, якщо врахувати, що всі наявні великі LLM навчаються на відкритих даних і Вікіпедія є їх величезною частиною, то не дуже зрозуміло, коли це буде вивірений за новими даними контент, а коли – переписування Вікіпедії в якомусь певному ключі.

Власне, це вже і видно. Стаття про самого Маска написана захопленим тоном, описуючи його роботу в DOGE з фактичною помилкою про Вівека Рамасвамі, посилаючись при цьому на BBC і Al Jazeera, які нічого подібного не писали. Стаття про гендер починається з визначення як «бінарної класифікації на основі біологічної статі» – проти соціологічного підходу Вікіпедії.

Сайт впав через годину після запуску.

Чекаємо антисемітських статей і щось новеньке про геноцид білих в ПАР. Це ж той самий Grok, який вже видавав подібне в Twitter.

AI-енциклопедія від Маска

Перспективна OCR-система від Deepseek

Deepseek представила OCR-систему, яка стискає текст із зображень у 10 разів зі збереженням 97% інформації. Система вимагає від 64 до 800 токенів на сторінку проти тисяч у конкурентів на кшталт MinerU 2.0, який використовує більш як 6000 токенів. В основі мала модель DeepSeek3B-MoE, завдяки розміру якої продуктивність системи на одному чіпі Nvidia A100 становить близько 200 тисяч сторінок на день.

Дослідники пропонують використовувати систему для стиснення історії діалогів в чат-ботах, зберігаючи старі повідомлення в меншій роздільній здатності, як вицвітає людська пам'ять. Це концептуально новий підхід до проблеми довгого контексту в мовних моделях – не збільшувати вікно контексту нескінченно, а стискати стару інформацію з втратою частини деталей.

Андрій Карпаті з OpenAI захоплено відгукнувся про цю модель у Twitter, стверджуючи, що така обробка інформації дозволить у багато разів скоротити необхідний контекст і прискорить моделі. Зображення взагалі є більш універсальним методом передачі інформації, і головне – можна позбутися токенізаторів, які він вважає потворністю. Він, звичайно, емоційний у цьому випадку. Але ряд претензій до токенізаторів цілком виправдані – вони погано працюють з рідкісними мовами, їх треба навчати окремо, в них зустрічаються артефакти й так далі.

Якось дуже химерно виправдалося твердження репортерів «Картинка варта тисячі слів», чи не так?

Перспективна OCR-система від Deepseek

Помилилися

Цікавий ель скандаль стався в AI-спільноті. Дослідники OpenAI заявили, що GPT-5 вирішив 10 раніше нерозв'язаних задач Ердеша і просунувся ще в 11. Менеджер компанії Кевін Вейл написав у твіттері, що модель знайшла розв'язання проблем, відкритих (open) десятиліттями. Формулювання передбачало, що GPT-5 самостійно довів складні теореми теорії чисел – потенційний науковий прорив.

Математик Томас Блум, який веде сайт erdosproblems.com, спростував заяву. Слово «open» на його сайті означає лише те, що він особисто не знає рішення, а не те, що завдання дійсно залишається невирішеним. Тож GPT-5 просто знайшов дослідження, які Блум пропустив. Деміс Хассабіс назвав епізод «embarrassing», Ян ЛеКун уїдливо зауважив, що OpenAI потрапила у власну пастку хайпу.

Твіти в результаті видалили, дослідники визнали помилку. В цілому, це тільки доводить, що в OpenAI працюють нормальні люди. Точніше – такі ж, як і скрізь. Хіба що житлове питання їх навряд чи псує.

Помилилися

Хактивісти зламали F5 Networks

F5 Networks повідомляє, що стала жертвою злому з боку хакерів, пов'язаних з національними державами. Зловмисники отримали довгостроковий доступ до середовища розробки продукту BIG-IP і викрали вихідний код, а також інформацію про невиправлені вразливості. BIG-IP використовується для управління трафіком додатків, і розробник особливо підкреслює – 48 з 50 найбільших компаній Fortune 50 використовують його рішення.

Іронія ситуації в тому, що компанія сама спеціалізується на кібербезпеці. Правда, F5 наполягає, що supply chain не скомпрометований і шкідливий код не був впроваджений в їх продукти.

Масштаб проблеми ілюструється реакцією – злом виявлено 9 серпня, але публічне розкриття інциденту було відкладено більш ніж на місяць на вимогу Мін'юсту США. Урядові органи США і Великобританії вже випустили відповідні рекомендації для користувачів.

F5 випустила оновлення для всіх продуктів і стверджує, що немає ознак використання вкрадених вразливостей в атаках. Але коли nation-state actors отримують таку інформацію, вони зазвичай не поспішають світитися.

Хактивісти зламали F5 Networks

AI як загроза біобезпеці

Команда Microsoft під керівництвом головного наукового співробітника Еріка Хорвіца опублікувала в Science дослідження про «вразливість нульового дня» в системах біобезпеки. Використовуючи генеративні AI-моделі для дизайну білків (включаючи власну EvoDiff), вони показали, як можна змінити структуру токсину достатньо, щоб обійти screening комерційних виробників ДНК, але зберегти токсичність. Ці системи порівнюють вхідні замовлення з базою відомих токсинів і патогенів – близький збіг повинен викликати тривогу.

Якщо що, це та ж технологія, на якій будуються добре фінансовані стартапи з пошуку нових ліків на зразок Generate Biomedicines і Isomorphic Labs.

Microsoft особливо виділяє – дослідження було повністю цифровим, ніяких реальних токсичних білків не виробляли, щоб уникнути звинувачень у розробці біозброї. Код не розкривається і не називають конкретні протестовані білки. Компанія попередила уряд США і виробників софта до публікації, патчі випущені.

Але, в цілому, не дуже дивний результат, тому в статті цитуються висловлювання про початок гонки озброєнь і так далі.

AI як загроза біобезпеці

Що приніс OpenAI DevDay

Закінчилася презентація, яка відкривала OpenAI DevDay, тож можна коротко оглянути представлені новинки.

Codex, той, що в хмарі, став загальнодоступним. Компанія представила AgentKit для створення AI-агентів, ChatKit для вбудовування чату в додатки та App SDK для інтеграції сторонніх сервісів на кшталт Spotify, Coursera та Canva прямо в ChatGPT.

Найсимпатичнішим виглядає AgentKit, в якому є Agent Builder – інтерфейс для створення агентів прямо в браузері, використовуючи вбудовані блоки і функції. У сервісів типу n8n або make тепер є можливість оптимістично розповісти, що їхній бізнес нікуди не дінеться, навпаки, OpenAI привчить так будувати агентів дуже велику аудиторію.

В API тепер з'явиться доступ до GPT-5 Pro і Sora2. А всього у ChatGPT 800 млн користувачів на тиждень.

OpenAI представила AgentKit для створення AI-агентів та інші новинки

Tinker для налаштування AI-моделей

Thinking Machines Lab Мири Мураті запустила свій перший продукт – Tinker, інструмент для автоматизації fine-tuning передових AI-моделей через API. Компанія залучила 2 млрд дол. seed-інвестицій при оцінці 12 млрд дол. ще до релізу. Команда – це ключові вихідці з OpenAI: Джон Шульман, який вів роботу над fine-tuning ChatGPT через reinforcement learning, Баррет Зоф (колишній VP досліджень), Ліліан Венг та інші.

Tinker обіцяє демократизувати те, що раніше вимагало кластерів GPU і спеціальної експертизи. Бета-тестери відзначають, що аналоги існують (VERL, SkyRL), але Tinker краще балансує між абстракцією і контролем.

Ось тепер гадайте – 12 млрд дол. оцінка до продукту – це була тільки ставка на команду або ось ця лінія на fine-tuning відкритих моделей представлялася інвесторам з самого початку? І заодно оцініть, що Міра менше ніж за рік дійшла до робочого продукту, а чим переконав своїх інвесторів Ілля Суцкевер широкій громадськості так поки і не відомо.

Tinker для налаштування AI-моделей

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT