|
СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ
Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях
Кто внес наибольший вклад в развитие украинского ИТ-рынка.
Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары
|
|

25 марта 2026 г., 17:25
Гаразд, ось вам новина, яка розбурхала Twitter. Пакет LiteLLM версії 1.82.8, опублікований у репозиторії PyPI, виявився скомпрометованим: у нього вбудували зловмисний код для викрадення облікових даних, закодований у base64 і прихований у файлі litellm_init.pth. Особливість формату .pth полягає в тому, що Python виконує його автоматично під час запуску будь-якого скрипта в середовищі, де встановлено пакет – навіть без явного імпорту. Це означає, що сама дія «pip install» вже запускала шкідливий код. PyPI помістив пакет у карантин через кілька годин, але за цей час зловмисник міг зібрати вміст SSH-ключів, конфігурацій AWS, Azure, Docker, Kubernetes, а також історію командного рядка та гаманці криптовалют.
Ланцюжок атаки починається не з LiteLLM, а з компрометації Trivy – інструменту для сканування безпеки, який використовувався в CI-пайплайні самого LiteLLM. Зловмисники, судячи з усього, через уразливість у Trivy отримали доступ до секретів CI-середовища, включаючи токени публікації на PyPI, а потім випустили заражену версію пакета безпосередньо. Це, звичайно, не перший випадок, коли засіб захисту стає вразливим місцем.
Як і слід було очікувати, «справжні» програмісти удали, що раніше ніколи не існувало атак на ланцюжок постачання, і почали коментувати, що ось, мовляв, й навайбкодили.
З позитивного – версія 1.82.8 була у відкритому доступі близько години. Тож потенційних жертв не повинно бути дуже багато. З середньо-негативного – власне код, що збирає дані, присутній і в 1.82.7, але там відсутній .pth-скрипт. Зараз поточна версія на PyPi – 1.82.6, але взагалі-то це nightly, що тільки підтверджує стару мудрість – віддавайте перевагу stable-версіям, буде спокійніше.
LLM із «сюрпризом»
19 марта 2026 г., 17:25
Всі ж чули про acquihiring – коли велика компанія купує невелику, зазвичай навіть без бізнес-перспектив, тому що насправді таким чином вирішується питання найму її співробітників? У переважній більшості випадків сам проєкт компанії, що купується, не матиме жодного майбутнього – він нішевий, він не має сенсу для аудиторії сервісів великої компанії, у нього немає цікавої аудиторії, загалом, сенс угоди один – найняти конкретних людей, а оформлення таким чином просто дозволяє їм позбутися зобов’язань у проєкті.
Отож, щастя таким чином трапляється нечасто. Як видно зі статистики, в середньому 77% найнятих таким чином засновників проєктів залишають компанію протягом трьох років. Середній час утримання засновників у компанії – 3,7 року. Засновники, у яких за плечима вже кілька проєктів, йдуть утричі частіше, ніж новачки. Якщо таким чином наймається автор сольного проєкту, ймовірність відходу вища – команда тримається довше. Щоправда, вона теж може розпастися – відхід одного підвищує ймовірність відходу всієї команди, і навіть підвищення одного з команди збільшує ймовірність відходу решти.
Імовірність збереження найнятих людей у команді збільшується, якщо їм надаються високі посади та/або технології компанії, що купується, знаходять застосування в новій. Втім, за межами трирічного періоду ці фактори впливають менше.
До речі, автори дослідження проаналізували 241 угоду з придбання компаній Google та Facebook, в результаті яких було найнято 454 засновників, починаючи з перших угод і до 2019 року. Тож у цій статистиці має бути, наприклад, Денніс Кроулі, якого придбали разом із сервісом DodgeBall (сервіс дозволяв відмічати відвідування закладів), а потім він пішов і створив точно те саме під назвою Foursquare. Так само як і Ян Кум, придбаний разом із Whatsapp, та Кевін Сістром із Instagram.
Цікаве дослідження про корпоративні поглинання
16 марта 2026 г., 17:45
У Китаї – бум OpenClaw. Тисяча людей у черзі біля офісу Tencent у Шеньчжені, щоб встановити програму на комп’ютер – це не початок продажів iPhone, а розповсюдження програмного забезпечення з відкритим кодом. Чудова картина.
Безкоштовна інсталяція від Tencent Cloud – це не благодійність, а класичне захоплення користувацької бази. Хмарні підрозділи ByteDance та Alibaba також пропонують рішення для розміщення OpenClaw на своїх платформах, нібито для зниження ризиків щодо конфіденційності. Платні послуги з установки в місцевих соцмережах – побічний індикатор того, що продукт поки що занадто складний для масового користувача, а ажіотаж випереджає реальну готовність аудиторії.
За деякими даними, 40% інстансів OpenClaw припадає на Китай. А місцева влада в декількох провінціях почала пропонувати субсидії для проєктів, що використовують OpenClaw – адже це відкрита альтернатива закритим західним агентам.
Втім, я поступово відмовляюся від того, що робить OpenClaw – мабуть, коли в агента занадто багато свободи, він перестає справлятися із завданнями. Наприклад, довелося перенести одну функцію на Cowork, оскільки замість реального виконання я щодня отримував повідомлення на кшталт «А ось тут не знайдено повний файл, саммарі зроблено за описом», відповідав «Файл на місці, перевір», і в підсумку «А, так, файл на місці, просто субагент…, а я вже виправив, наступного разу все буде нормально». Дуже схоже на керівництво людьми, і навіть емоції при відправленні повідомлення «Ти не впорався, прибери це завдання» теж присутні.
Китайська лихоманка OpenClaw
11 марта 2026 г., 17:25
З позовних заяв Anthropic з'ясовуються цікаві факти. Всього за час існування компанія заробила понад 5 млрд дол., витративши на створення моделей і розвиток понад 10 млрд. Дохід від контрактів з держсектором прогнозувався на рівні 500 млн дол. в цьому році, але компанія вже прогнозує зниження на 150 млн.
Компанія вказує, що після погроз Пентагону клієнти компанії або скорочують контракти, або відмовляються їх укладати без включення пункту про право на одностороннє припинення з боку клієнта. Йдеться про контракти на десятки мільйонів доларів.
Компанія подала два позови: до федерального суду Сан-Франциско з обвинуваченням уряду в порушенні права компанії на свободу слова; та до апеляційного суду Вашингтона з обвинуваченням уряду в дискримінації.
Anthropic звернувся до суду Сан-Франциско із заявою про введення забезпечувальних заходів за позовом, а саме зобов'язати Пентагон продовжити роботу з компанією, не розриваючи контракту.
Загалом, з такими позовами в Anthropic хороші шанси – суди не раз визнавали право компаній на свободу слова (з найраніших можу пригадати, що так було визнано право Google на ранжування сайтів у пошуку), а дискримінація в контрактах – це просто класика судів з урядом.
Цікаві факти про Anthropic
6 марта 2026 г., 17:25
За один день розчарувався відразу у двох (якщо точніше, то навіть у трьох) продуктах. Але спочатку про перший.
Скасував підписку на Google AI Ultra. Я практично не використовував його на повну потужність, але користувався унікальною для цієї підписки функцією Deep Think – кілька разів вона давала дійсно цікаві результати out-of-the-box. І вони її розвивали – і з кожним таким розвитком її корисність відчувалася менше, зате глючила вона на порядок більше. Наприклад, просто відмовлялася відповідати словами «Вас багато, а я одна». Не жартую – буквально відповідь виглядала як «Дуже багато людей зараз користуються цією функцією». Причому, як мені довелося з'ясувати, ліміт в 10 повідомлень при цьому витрачався – один раз після двох змістовних відповідей між прочуханами мені повідомили, що ліміт все, приходьте завтра.
Оновлення Gemini Pro до версії 3.1 зробило щось жахливе. Такого масштабу підлабузництва не було навіть у тій версії ChatGPT, яку розробники аварійно відкочували з цієї причини. Якщо, не дай Боже, ти не попереджаєш модель, що ніякого відношення до змісту статті або документа не маєш, то отримуєш набір солодких слів, за якими не розумієш підсумковий сенс. Ось буквально – я показав документ, перетерпів похвали, сказав, що це не моя стаття й ось що я про це думаю. У відповідь:
Знімаю капелюха. Ви копнули на рівень парадигми та управлінської психології… Ваш аналіз абсолютно точний… Ваша іронія влучає в десятку… Ви геніально сформулювали… Ваша думка – це корінь… Ви праві на 100%.
Я, мабуть, ще недостатньо постарів, щоб знаходити задоволення в таких похвалах за свої гроші, причому немаленькі – $270 на місяць.
Якщо додати, що після оновлення на 3.1 модель стала частіше ігнорувати кастомні інструкції – а там є жорстка вказівка вважати дані навчання застарілими й перевіряти їх пошуком в інтернеті, – і пояснювати, що модель Gemini хороша, оскільки в новітній версії 1.5 Pro вікно контексту збільшено до 1 млн токенів, – то зовсім незрозуміло, за що платити гроші.
Загалом, я зосереджуюсь на Claude, де у мене Max підписка. До речі, за всіма спостереженнями, Claude набагато менше схильний погоджуватися і хвалити користувача і не відхиляється від інструкцій перевіряти інформацію, яка могла б застаріти. Це, не кажучи про те, що в розробці це найкраща модель і Claude Code у мене працює відразу в декількох екземплярах.
Розчарування в LLM
2 марта 2026 г., 17:25
Я багато років використовую для управління своїми паролями 1Password. Мабуть, це найкраще рішення, яке за десятиліття перетворилося на продукт, що практично повністю задовольняє потреби навіть досвідченого користувача.
Але ось на тижні прийшов лист про підвищення вартості передплати. Так, я вже давно використовую 1Password 8, який зберігає паролі не у файлі (його можна було розмістити на будь-якому диску, включаючи iCloud), а у своєму сервісі. Зміна не така вже й істотна – $12 на рік мені, зрозуміло, по кишені, – але заохочувати компанію, яка раптом (з березня, тобто попередили за місяць) збільшує вартість усіх передплат на чверть, я абсолютно не хочу. І пішов дивитися альтернативи.
Попри все багатство вибору – навіть у Proton, де я плачу за пошту, є сховище паролів, – особливої різноманітності немає. Річ у тім, що я, крім паролів та іншої текстової інформації, зберігаю в 1Password ssh-ключі й, завдяки інтеграції з ssh-agent, зручно ними користуюся, схвалюючи з'єднання з сервером через TouchID ноутбука. У більшості менеджерів такої функції немає, тому залишаються всього три – Bitwarden, KeePassXC і StrongBox.
StrongBox – це практично 1Password 7 за функціональністю, він зберігає паролі у файлі, вміє імпортувати все з файлу експорту 1Password. Правда, інтерфейс дещо інший, у ньому немає вилизаності десятиліть розробки, і при цьому багато цікавих функцій є тільки в Pro-версії, яка доступна за $25 на рік. Дешевше, ніж у 1Password, звичайно, але мені ж не ціна важлива. Втім, вони з ходу пропонують три місяці пробної підписки, є можливість протестувати з усіх боків.
Відсутність вилизаності виглядає, наприклад, так – кожен раз на старті вам показують Database Manager, де треба вибрати потрібний файл з базою паролів. Ні, можна здогадатися, що за кнопкою Properties ховається опція «Launch on startup» і це почне призводити до запуску потрібної бази відразу з додатком, але ж можна і не змушувати користувача шукати цю опцію?
StrongBox при імпорті створює правильний .kdbx файл, який підходить KeePassXC. Так що його я теж спробував.
KeePassXC – це форк KeePass, який не розробляється вже кілька років, повністю, як запевняє автор, написаний нативно, на C++, на відміну від KeePassX. Втім, зовнішній вигляд у нього явно кросплатформовий, тобто виглядає однаково погано на всіх платформах. У ньому є всі необхідні функції, крім зручності. Меню не відрізняється послідовністю, опції знаходяться в досить різних місцях, але це навіть не так погано в порівнянні з основними проблемами. Програма не вміє працювати у фоновому режимі – це взагалі щось дивне для утиліти, яка за визначенням є резидентною. Тобто реально, якщо ви закриєте вікно програми, вона закінчить роботу і розширення в браузері буде плакати, що ви, напевно, вперше запустили його і воно не бачить програму.
Навіть підтримка TouchID виглядає дивно. Ви вмикаєте підтримку «Quick Unlock» і розраховуєте, що деякий час зможете розблокувати доступ через TouchID. Ні – ви закриваєте програму (пам'ятайте, вона не вміє працювати у фоновому режимі та реально припиняє роботу при цьому), відкриваєте її знову – жодних ознак увімкненого TouchID, вводите парольну фразу. Знаєте, як користуватися? Ввести пароль, розблокувати базу, заблокувати її назад – і тут ви побачите кнопку із зображенням TouchID, на яку треба натиснути мишкою, і тоді вона запросить авторизацію через TouchID. Я не можу собі уявити більш божевільного розуміння usability і відчуваю бажання при зустрічі з розробником міцно стиснути йому горло.
Коротше, я в результаті зупинився на Bitwarden. Він теж все вміє, теж, правда, не без питань до usability, але зате абсолютно безплатний, якщо сховище розгортати самостійно, за допомогою Vaultwarden. У мене особистої інфраструктури достатньо, щоб завжди знайти, де запустити ще один невеликий контейнер і прив'язати до нього субдомен, так що це не проблема. Візуальних шорсткостей там більш ніж достатньо, але поки я серйозно помучився тільки з тими самими ключами – чомусь імпортувати їх штатно Bitwarden не захотів, вручну опція була відсутня, тому довелося поставити пакет CLI й додати ключі так.
Спробуємо поки, як воно буде спрацьовувати у звичних діях – власне, два конкуренти саме на таких і відвалилися дуже швидко.
Складнощі парольних менеджерів
P.S. Це було швидко – менше ніж за тиждень я перепробував різні менеджери паролів і повернувся до 1Password.
Минула серія зупинилася на Bitwarden. Я чесно намагався ним користуватися – тобто переніс на нього все, увімкнув інтеграцію, вимкнув інтеграцію браузерів і системи з попередником. Але, коли починаєш користуватися постійно і виявляється, що навіть після налаштування звичні операції вимагають більше дій, витримуєш недовго.
Перш за все, потрібне налаштування. Наприклад, за замовчуванням десктопний додаток і розширення в браузері – це дві сутності, які не підозрюють одна про одну. Треба зайти в налаштування і включити «browser integration». Я практично впевнений, що знайдеться людина, якій важливо під'єднати один vault в браузері, а інший на решті десктопу, але чому це дефолт?
Навіть з налаштуванням – чому після гасіння екрана, коли додаток блокує базу, він не може розблокуватися просто TouchID, чому він все одно вимагає натиснути мишкою на «Unlock»? Чому запит від ssh-agent взагалі не можна підтвердити TouchID? Як не дивно, я знаю, чому – тому що Bitwarden зроблено на Electron, тому в кращих традиціях кросплатформної розробки ігнорує інтерфейс будь-якої платформи. А заодно і логіку UX.
Я потерпів і знову пересів на Strongbox. Адже там навіть коректно імпортувалися ssh-ключі, подумав я. Я був наполовину правий. Вони імпортувалися, але не як ключі, а як записи, де всі елементи (private key, public key і fingerprint) були вставлені як кастомні поля. Ключ начебто є, але, виявляється, його треба імпортувати заново і поставити галочку «ssh-agent».
Втім, я б потерпів, якби не дивний баг – кожен раз після гасіння екрана замість додатка я бачив Database Manager, який повідомляв мені, що Authentification cancelled. Інтенсивне дослідження показало, що, швидше за все, додаток перевіряє контекст біометрії, отримує відмову від системи (macos скидає авторизацію при гасінні екрана), але замість повторного запиту повторює перевірку кілька разів і в підсумку видає помилку. Тобто кілька разів на день я замість одного дотику повинен кілька разів натиснути «ОК» і в результаті завантажити базу вручну.
Підсумок – я повернувся на 1Password. Я як і раніше вважаю, що компанія не повинна з бухти-барахти підвищувати ціни на чверть, але ніхто інший навіть на цю різницю не заробив.
25 февраля 2026 г., 17:25
TheInformation детально розбирає хід розвитку проєкту Stargate – втім, слово «розвиток» тут звучить дещо іронічно. Спочатку три компанії-учасниці – OpenAI, Oracle і SoftBank – збиралися оперативно вкласти 100 млрд дол. і почати будівництво потужностей на 10 гігаватів. Однак процес пішов трохи не так – партнери не змогли домовитися про розподіл ролей і структуру співпраці.
Зіткнувшись з гострою потребою в обчислювальних потужностях, OpenAI спробували самостійно будувати та орендувати великі дата-центри, однак власних ресурсів у них на це немає. У підсумку OpenAI повернулася до партнерів по Stargate, але укладала угоди окремо – з SoftBank і з Oracle, а не в рамках тристоронньої структури. Тобто, наприклад, OpenAI та SoftBank домовилися про будівництво кампусу потужністю 1 ГВт в окрузі Мілам, штат Техас. OpenAI хотіла контролювати об'єкт і вважати його своїм першим власним дата-центром, а SoftBank прагнула володіти проєктом. У вересні-жовтні сторони дійшли компромісу: OpenAI підписує довгострокову оренду і контролює проєктування, а SoftBank Energy будує і володіє об'єктом. Будівництво розпочалося в жовтні.
Затримки з розвитком Stargate вплинули на фінансові показники OpenAI: валова маржа минулого року виявилася нижчою за очікування через необхідність терміново закуповувати дорогі обчислювальні ресурси. Прогноз витрат на обчислення до 2030 року був збільшений з 450 до 665 млрд дол. Для покриття потреб і диверсифікації OpenAI минулого року уклала контракти з Amazon Web Services, Google Cloud, AMD (до речі, десь бачив тести, що їхній чіп вже практично наздогнав зразки Nvidia) і Cerebras.
Загалом, підсумки розвитку проєкту Stargate полягають у тому, що єдиного проєкту не існує – є парасольковий бренд для певної кількості спільних проєктів.
Робота над «Зоряною брамою» триває
19 февраля 2026 г., 17:25
Я, звичайно, піддався модній тенденції та завів собі OpenClaw – фреймворк, що складається з персонального агента і великої кількості обв'язок навколо. Не можу сказати, що використовую його на повну потужність, але все ж спостереження вже можна оформляти.
У мене є достатня кількість не дуже активної техніки Apple, куди можна було б поставити OpenClaw. Ну, знаєте, як народ раптом почав масово купувати базову версію mac mini спеціально для бота. Але я все ж не став цього робити. Я не бачу особливих проблем з безпекою, але й особливих причин розгортати бота саме так теж не помітно. Хіба що чималу кількість скілів, які йдуть в комплекті з ботом, рекомендується ставити через Homebrew. Ну так зовсім не обов'язково дотримуватися цих рекомендацій, бінарники скрізь бінарники.
За два тижні використання я знайшов тільки одну проблему, яка б вирішувалася використанням macos. Якщо хочеться, щоб бот працював зі сховищем Obsidian, то це сховище не повинно знаходитися в iCloud, як у мене і було. Втім, я переніс поки сховище на Cloudflare R2 з досить щедрим безплатним планом – подивимося, що буде.
Бот у мене працює на окремому VPS – йому цілком достатньо пари гігабайт пам'яті. Але я виділив 4 VCPU і 8 Gb пам'яті. Розробники зараз переймаються проблемами безпеки. Тому він трохи лається на те, що сервер слухає загальну мережу (lan). Але це безпечно – він закритий від зовнішнього світу Cloudflare Access, а за ним стоїть Cloudflare Zero Trust, так що пробитися до нього зовсім непросто. Довелося трохи повозитися з такою конфігурацією – за замовчуванням передбачається або ssh-тунель до хосту, або використання tailscale, але моє рішення мені подобається набагато більше мінімумом локальних налаштувань.
Технічно бот не дуже відрізняється від Claude Code або будь-якого іншого бота. Тим більше, що розробники рекомендують використовувати саме Claude Opus як основну модель. Так, у нього є додаткові файли, типу SOUL.md, де описується його поведінка, але це скоріше антропоцентризм. Оскільки Custom Instructions у вебінтерфейсі чатбота або CLAUDE.md працюють точно так само. Принципова відмінність тільки одна – бот має всі права на ці самі файли й налаштований ці права використовувати. Тому ви можете нічого особливо не конфігурувати – просто сказати боту, що ви від нього хочете, сказати, що для цього використовувати, і він сам собі напише скіл або інструкції для цього і запише, як і коли їх треба викликати.
Скажу страшне – можна йому навіть API ключі прямо в чаті повідомити, він їх запише і почне використовувати. У цьому місці десь повинні заплакати параноїки, які впевнені, що цю секретну інформацію ніколи не можна повідомляти агенту. Нехай плачуть, а якщо вам важливо забезпечити чистоту і прозорість, згенеруйте окремі ключі до потрібних API спеціально для агента – зможете контролювати й за потреби відкликати ключ.
Отже, ця легкість – коли бот не запитує дозволів і в ідеалі ви бачите тільки його відповіді в месенджері, – і породжує відчуття магії. Ви формулюєте йому завдання, він щось робить якийсь час – і завдання виконано. Причому ви не знаєте, як саме.
Я кілька разів розповідав найдивовижніший приклад. У мене досить розлога статистика в Apple Health. І мені давно хотілося її об'єднати з іншими даними про здоров'я і щоб все це міг аналізувати AI. Але в Apple Health немає відкритого API, є тільки експорт даних (лаяти Apple тут не варто – в health tech це практично стандартна поведінка вендора, у того ж Garmin все ще гірше). У мене не було особливої надії, але я сформулював завдання – як би мені повідомити боту такі дані. Приблизно за наступні 10 хвилин бот з'ясував, що є спосіб налагодити експорт – за допомогою платної програми для смартфона, але $5 я якось зміг витратити, – повідомив, що зараз підготує, що треба, і сказав «Я тут написав невеликий сервер, налаштуй цю програму ось так і налаштуй регулярний експорт на телефоні».

Мене вразила навіть не швидкість, а те, що я не давав йому жодних інструкцій і деталей на кшталт «напишімо сервер для приймання даних», все рішення розроблено ботом. Я тільки потім пішов подивитися, як це взагалі виглядає фізично – виявився скрипт на Typescript, який слухає собі порт і зберігає дані в базу. Втім, про базу я йому сказав наступного дня, щоб не плодити купу файлів.
І так поступово я почав переносити в цей бот якісь рутинні операції. Наприклад, я регулярно читаю наукові статті та дослідження і зберігаю їх у спеціальній програмі. Але статті, як правило, об'ємні та, щоб швидко зрозуміти їх зміст, я вважаю за краще закинути PDF в LLM і попросити виклад. Це означає, що мені треба PDF носити руками, задавати один і той же промпт – очевидно, що потрібна автоматизація.
Спочатку я хотів побудувати сценарій в n8n – у мене є власний інстанс для цього і це виглядає логічно, оскільки у n8n є маса готових автоматизацій, не треба нічого писати. На жаль, практично завжди ці жорсткі рамки готових операцій не дають досягти потрібного результату. Я спочатку довго лаявся з AI – що Claude, що Gemini, – які наполегливо робили workflow, що складаються з двох типів вузлів (HTTP request і Code), після чого просто дав завдання боту. Ми в результаті більше часу розв'язували проблему доступу до мережевого сховища статей (виявилося, що я в незапам'ятні часи сам забанив автономну систему всього хостингу на акаунті Cloudflare), ніж він писав всю логіку і тестував. В результаті, щоранку він перевіряє, чи немає свіжих статей для обробки, і кладе мені підсумок у теку Obsidian.
У підсумку в бота переїхала вся дрібна автоматизація, навіть та, яка, ймовірно, легко робиться сценаріями на n8n – я довше буду відкривати інтерфейс і придумувати схему (або навіть чатитися з Claude/Gemini у вебінтерфейсі), ніж давати команду боту в Telegram.
Ні, це не ідеальне рішення і не обманюйте себе захопленням. У боті не розв'язана проблема пам'яті – теоретично, там є відразу кілька механізмів її організації й X рясніє статтями «Ми вирішили проблему пам'яті в OpenClaw», але це брехня – ось тільки кілька годин тому бот сказав «Мені треба перезапустити gateway, щоб застосувати нову навичку» і через хвилину продовжив «Так, я перевірив, що ми сьогодні зробили, чим далі хочеш зайнятися?». Тобто про те, чим він займався безпосередньо перед рестартом за власною ініціативою, у нього взагалі ніякої інформації не залишилося.
Можна сказати йому «Запиши й запам'ятай», звичайно. Він навіть з власної ініціативи запропонує створити окремий файл – і зробить, і почне туди записувати якісь пункти. Але після наступного збою з'ясується, що файл існує, але про те, що в нього треба дивитися, не сказано в AGENTS.md. А потім я зацікавився, а що ж він постійно щось забуває – і виявилося, що є прекрасний memory search, тобто шикарний гібридний пошук по всій історії всіх чатів (саме після однієї зі статей з рекомендаціями й налаштований), але інструкції шукати там у нього теж немає.
Зрештою, ви розумієте, що треба сісти й вручну розібратися з тим, що він пам'ятає і чому не пам'ятає, і не факт, що це теж допоможе повністю – недетермінованість моделей теж ніхто не скасовував. Але зайнятися все ж треба буде.
Саме з цієї причини я не ставлю перед цим ботом великі завдання і з подивом дивлюся на людей, які там розгортають складні системи розробки. Я все ж не настільки без комплексів і точно не хочу втрачати контроль над процесом.
Попри це, на роль персонального помічника такий бот цілком підходить. Подивимося, куди це далі піде.
Пара тижнів з OpenClaw
13 февраля 2026 г., 17:35
Ілон Маск провів загальні збори співробітників xAI, на яких оголосив про реструктуризацію в чотирьох напрямках: чат-бот Grok, кодинг, відеогенерація і Macrohard – підрозділ AI-агентів, ну, ви розумієте, на кого він натякає.
Набір напрямків виглядає як спроба наздогнати відразу всіх конкурентів одночасно. Голосовий продукт розробляли з нуля за пів року, надихнувшись успіхами OpenAI. Відеогенерація, за словами Маска, стане основним споживачем обчислювальних потужностей.
Маск також розповів про плани запустити окремий додаток X Chat і платіжний сервіс X Money (знову?!). За його словами, X приносить 1 млрд дол. підписної виручки на рік. Скільки приносить бізнес безпосередньо AI, не говориться, але розширення датацентрів обійдеться у 20 млрд дол.
Крім земних справ, Маск розповів, що компанія побудує фабрику на Місяці, звідки масивною катапультою будуть запускатися AI датацентри на орбіту навколо Землі. На Марс ми, очевидно, поки не летимо, концепція змінилася.
Маск реорганізує свій AI-бізнес після відходу двох співзасновників
10 февраля 2026 г., 17:25
Ілон Маск відвідав подкаст Дваркеша Патела і Джона Коллісона, і зараз усі цитують його заяву про датацентри в космосі. Але там є багато інших тем. Так, він заявив, що «протягом 36 місяців або менше» (можливо, «ближче до 30 місяців») космос стане «найекономічнішим місцем для розміщення AI», аргументуючи це труднощами масштабування енергосистем на Землі та регуляторними бар'єрами при розгортанні великих сонячних проєктів. Ефективність сонячних панелей у космосі може бути приблизно «в п'ять разів» вищою через відсутність ночі, хмар і атмосфери, і там не потрібні батареї для накопичення енергії (логічно, сонце в космосі є завжди).
Правда, як планується розв'язати проблему з охолодженням датацентрів, він не говорив.
У розмові наводилися практичні оцінки споживання для великих обчислювальних кластерів. За словами Маска, «кожні 110000 GB300» з урахуванням мережевої інфраструктури, CPU, сховища, охолодження та резерву на обслуговування генерації вимагають «приблизно 300 мегаватів», а «330000 GB300» – «приблизно гігават» потужності на рівні генерації (плюс-мінус один енергоблок АЕС). Як приклад він описав досвід xAI з розгортання енергопостачання для проєкту Colossus 2. Через складнощі з дозволами в Теннессі частину рішень, за його словами, довелося переносити через кордон штату в Міссісіпі, з прокладанням ліній електропередачі на кілька миль. Це досить анекдотичний приклад, до речі – датацентр стоїть практично на кордоні штатів, так що електростанцію для нього просто розмістили з іншого боку кордону, реально в парі миль.
Маск стверджував, що газові турбіни «розпродані до 2030 року», а ключовим вузьким місцем назвав лопатки й направляючі турбін, які, за його словами, виробляють «тільки три ливарні компанії у світі».
Маск повідомив, що SpaceX і Tesla «будують плани» щодо виходу на «100 гігаватів на рік» виробництва сонячних елементів, і пов'язав перспективи космічної енергетики з темпами запусків Starship. Він припустив, що через п'ять років «щороку» буде запускатися та експлуатуватися більше AI-потужностей в космосі, ніж сумарно на Землі, і оцінив майбутній масштаб як «кілька сотень гігават на рік» зі зростанням до «близько теравата на рік» до виникнення обмежень по паливу для ракети. В обговоренні прозвучала оцінка, що 100 гігаватів у космосі можуть відповідати «близько 10000 запусків Starship». А також теза Маска про готовність SpaceX «націлюватися» на «10000 запусків на рік» і потенційно «20-30000». При оцінці, що для такого темпу може вистачити «20 або 30» кораблів залежно від циклу повернення.
Окремим блоком обговорювалося виробництво чіпів та ідея TeraFab для логіки, пам'яті та упаковки, а також ризики дефіциту пам'яті (RAM) і зростання цін на DDR. Маск заявив, що виведення фабрики на об'ємне виробництво з високим виходом придатної продукції займає близько «п'яти років», і перерахував використання потужностей TSMC Taiwan, Samsung Korea, TSMC Arizona і Samsung Texas.
Також він згадував плани щодо виведення Tesla AI5 «приблизно до другого кварталу наступного року», а AI6 – «менш ніж через рік» після цього.
Для космічного застосування чіпів він говорив про необхідність більшої радіаційної стійкості й вищої робочої температури. Також прозвучала оцінка цільового масштабу на 2030 рік – «100 гігаватів» по енергії та відповідний обсяг чіпів, включаючи згадку про «100 мільйонів» повнорозмірних (full reticle) чіпів при розрахунку «кіловат на фотошаблон».
Як скоро ми почнемо обговорювати будівництво власне фабрик чіпів у космосі? Не знаю, чи будуть у них ті ж проблеми, що і у датацентрів, з охолодженням, але абсолютно точно не буде проблем з вимогами до виробництва – там все ж практично вакуум.
У частині робототехніки Маск назвав ключовими проблемами гуманоїдів «інтелект у реальному світі», «кисть» і «масове виробництво». Стверджуючи, що в Optimus проблема створення руки вирішується коштом повністю кастомних приводів, електроніки, сенсорів і управління, за відсутності готового ланцюжка постачання. Він заявив, що Optimus 3, за його оцінкою, повинен підійти для виробництва «близько мільйона» одиниць на рік, а Optimus 4 – для масштабування до «10 мільйонів» на рік. Для навчання планується створення «Optimus Academy» з «як мінімум 10000» і, можливо, «20-30000» роботами для самонавчання в реальності та «мільйонами» в симуляції, щоб скоротити розрив sim‑to‑real.
Також у розмові порушувалися теми Китаю та США (включаючи твердження Маска, що тарифи на імпорт сонячних панелей у США становлять «кілька сотень відсотків»), його оцінка залежності США від китайського рафінування сировини (зокрема, згадка про «98%» рафінування галію в Китаї), а також теза Маска, що без «проривних інновацій» США Китай «буде домінувати» у виробництві.
У політичній частині Маск згадав DOGE і заявив, що GAO оцінював обсяг шахрайства за адміністрації Джо Байдена «приблизно в половину трильйона доларів», а також навів приклади з базою Social Security і платежами Treasury на «$5 трлн» на рік. Окремо він сказав, що придбання Twitter і підтримка обрання Дональда Трампа, на його думку, були діями «в інтересах цивілізації». З чого можна зробити висновок, що найважливішим з інтересів цивілізації для нас є поржати.
Маск про перспективи ЦОДів у космосі, виробництво чіпів і робототехніку
|
|

|