|
СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ
Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях
Кто внес наибольший вклад в развитие украинского ИТ-рынка.
Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары
|
|

8 августа 2025 г., 17:25
Після скарг клієнтів Cloudflare провела розслідування і з'ясувала, що Perplexity порушує стандарти індексування, вже багато років загальноприйняті в інтернеті. Навіть коли сайти явно забороняють сканування в robots.txt і блокують офіційні боти Perplexity, компанія все одно дістає контент через краулери, що маскуються під звичайний браузер Chrome.
Методика виглядає так – спочатку приходить офіційний PerplexityBot. Якщо його блокують – включається план Б з user agent «Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7)». Крім того, використовується постійна ротація IP з різних мереж і навіть автономних систем.
Усе це явно порушує Robots Exclusion Protocol, описаний у RFC, який досі вважався практично непорушним. Принаймні досі компанії, помічені в його порушенні, червоніли, перепрошували та припиняли подібну практику. Але Perplexity явно націлилася на лаври enfant terrible серед AI та пошуковиків.
Cloudflare вже виключила Perplexity зі списку верифікованих ботів і додала блокування у свої правила. Це доступно всім клієнтам, включно з безплатними акаунтами. Втім, як пишуть самі Cloudflare, після цього поведінка Perplexity напевно зміниться. І почнеться новий раунд гри в кішки-мишки.
Perplexity приховано сканує сайти навіть в обхід заборони
5 августа 2025 г., 17:25
CEO Apple Тім Кук провів загальні збори співробітників – таке трапляється нечасто – і фактично визнав, що компанія запізнилася до початку AI-революції. Хоча зробив він це у своєму стилі, нагадавши, що Apple рідко бувала першою. PC з'явився до Mac, смартфони до iPhone. Але саме Apple створювала «сучасні» версії цих продуктів.
Найцікавіше розповів Крейг Федерігі про Siri. Виявляється, вони намагалися створити гібридну систему, яка б поєднувала старі команди типу установки таймерів з новими можливостями LLM. Не вийшло. «Ми зрозуміли, що цей підхід не дотягне до якості Apple», – визнав він. Тепер переробляють всю архітектуру з нуля.
Керівництво проєктом поклали на Майка Роквелла, який до цього займався Apple Vision Pro.
Втім, Apple готується вкладати серйозні кошти. За рік найняли 12 тисяч осіб, причому 40% – в дослідження і розробки. Працюють над спеціалізованим чіпом для хмарних AI-обчислень під кодовою назвою Baltra. Будують завод з виробництва AI-серверів в Х'юстоні.
А в кінці зустрічі Кук інтригував: продуктовий пайплайн «приголомшливий», але говорити про нього він не може. За даними Bloomberg, там і складаний iPhone в наступному році, і розумні окуляри, і навіть роботи. І красива цитата «AI is ours to grab».
В принципі, Тім правий – компанія рідко робила щось першою, від персонального комп'ютера через mp3-плеєри, смартфони, планшети й годинники, але кожного разу робила це нарешті правильно. Проблема тільки в тому, що ніколи раніше вона так не відставала.
Наздогнати та перегнати
30 июля 2025 г., 17:25
Anthropic з колегами опублікували дослідження про те, що вони назвали «subliminal learning» – підсвідомим навчанням великих мовних моделей (LLM). Суть у тому, що моделі можуть передавати одна одній поведінкові риси через дані, які ніяк із цими рисами не пов'язані.
Наприклад, модель, яка «любить сов», генерує звичайні послідовності чисел. Інша модель, навчена на цих числах, теж починає віддавати перевагу совам у своїх відповідях. Жодних згадок сов у числах немає, але перевага передається.
Цікава деталь – це працює тільки між моделями зі спільною базою. GPT-4 може передати риси іншій GPT-4, але не Qwen або Claude. Дослідники припускають, що справа в модель-специфічних статистичних патернах.
Проблема в тому, що так само може передаватися і небажана поведінка. Модель із проблемами в alignment може «заразити» інші моделі через цілком нешкідливі на вигляд дані – числа, код, математичні викладки. І фільтрація тут не допоможе, оскільки на семантичному рівні дані чисті.
Для індустрії це означає необхідність перегляду практик дистиляції моделей. Простої фільтрації контенту вже недостатньо. Потрібні глибші методи контролю.
У мене є окрема розвага – знаходити аналогії в людській поведінці для всякого нового ефекту в LLM. Ось тут я відразу подумав про поведінковий таргетинг. Адже його основна особливість полягає в тому, що людину відносять до певного кластера на підставі поведінки в онлайні та поширюють інші характеристики кластера для показу їй реклами. У підсумку людина, яка регулярно відвідує сторінки про фінанси та новини, у підсумку побачить рекламу дорогих смартфонів – тому що інші люди, які відвідують ці сторінки, відвідують також огляди дорогих смартфонів. І це тільки найближчий приклад.
Підсвідоме навчання LLM
24 июля 2025 г., 17:25
Адміністрація Трампа представила 23-сторінковий план розвитку AI в США, який передбачає істотне послаблення регулювання та розширення енергетичних потужностей для дата-центрів. План підготував «AI-цар» Девід Сакс спільно з командою радників, включаючи Срірама Крішнана і Майкла Краціоса.
Цікаво, що документ вимагає від федеральних агентств закуповувати тільки ті мовні моделі, які вважаються «вільними від ідеологічних забобонів». При цьому до числа забобонів не будуть відноситися згадки про дезінформацію, різноманітність і кліматичні зміни. Фактично це означає повний відкат політики в області AI safety, що здійснювалася при Байдені.
Цікавий момент з фінансуванням – Білий дім планує обмежувати федеральні гранти для штатів, які введуть «обтяжливі» правила для AI. Виглядає як ще один прояв лобізму Big Tech, які до цього просували поправку, що забороняє штатам 10 років взагалі регулювати AI.
У частині конкуренції з Китаєм план пропонує посилити експортний контроль, залишаючи деталі на розсуд міністерства торгівлі. З огляду на те що тижнем раніше це міністерство дозволило Nvidia постачати чіпи H20 до Китаю, швидше за все, цей контроль обмежиться заявами без реального посилення. Відповідне пояснення вже є – мовляв, приватні послаблення покликані зберегти конкурентоспроможність американських компаній на китайському ринку.
Втім, найбільш практична частина плану стосується енергетики – розвиток ядерної та геотермальної генерації для забезпечення дата-центрів. З огляду на те що сучасні AI-системи споживають енергії як цілі міста, це може стати ключовим фактором успіху всієї ініціативи.
План розвитку AI в США – послаблення регулювання та енергетика
21 июля 2025 г., 17:25
Марк Закерберг дав невелике інтерв'ю новому проєкту TheInformation TITV про плани Meta в галузі AI та озвучив дві нові стратегії компанії. Перша стосується «персонального суперінтелекту» – бачення, що кардинально відрізняється від підходів інших лабораторій на кшталт OpenAI. Замість централізованого ШІ для вирішення глобальних завдань, Meta фокусується на тому, щоб дати кожній людині доступ до суперінтелекту для повсякденних потреб – стосунків, творчості, розваг.
Друга стратегія – масштабні капіталовкладення. Meta будує дата-центри потужністю в кілька гігаватів, включно з проєктом Hyperion (у його пості у Facebook розмір дата-центру продемонстровано накладанням його профілю на Мангеттен). Компанія використовує незвичайний підхід – встановлює сервери в «штормостійких наметах» для прискорення будівництва.
Закерберг активно переманює дослідників з OpenAI та інших лабораторій, пропонуючи їм максимальну кількість обчислювальних потужностей на дослідника. За його словами, найкращі фахівці хочуть «мінімум підлеглих і максимум GPU». При цьому він заперечує правдивість повідомлень про пакети в 100-200 млн дол. для топ-кандидатів.
Ключова ідея – AI-окуляри як основна платформа для персонального суперінтелекту. Закерберг вважає, що в майбутньому відсутність AI-окулярів означатиме «когнітивну неповноцінність», як відсутність звичайних окулярів для корекції зору сьогодні.
AI-окуляри для персонального суперінтелекту
15 июля 2025 г., 17:25
METR провів дослідження впливу AI-інструментів на продуктивність досвідчених розробників, які працюють зі зрілими проєктами з відкритим вихідним кодом. Результати виявилися несподіваними – продуктивність знизилася на 19%, хоча самі учасники вважали, що AI прискорив їхню роботу на 20%.
Методологія була максимально суворою: 16 розробників з великих open-source проєктів виконували 246 завдань, випадковим чином розподілених на категорії «з AI» і «без AI». У середньому проєкти мали вік понад 10 років і містили більш як мільйон рядків коду.
Основні проблеми: AI-генерований код не відповідав «високим стандартам проєктів», розробники витрачали багато часу на перевірку і виправлення коду (приймали тільки 39% генерацій), часто доводилося писати код наново після кількох невдалих спроб з AI.
Дослідження показало, що сучасні AI-інструменти добре працюють із невеликими, чітко визначеними, «зеленопольними» проєктами. Але погано справляються з великими кодовими базами, де потрібне глибоке розуміння контексту і неявних знань про проєкт.
Важливий висновок: навіть коли розробники працювали на 19% повільніше з AI, вони суб'єктивно відчували прискорення на 20%. Це ставить під сумнів достовірність багатьох звітів про ефективність AI-інструментів, заснованих на самооцінці.
Утім, цілком можливе й інше пояснення – досвідчені розробники вимагали переробляти код, коли він їм не підходив за стилем або був, на їхню думку, недостатньо ефективним, ігноруючи його реальну роботу. У цьому разі може вийти, що в реальному житті навіть без AI «досвідчені розробники» витрачають на виконання завдання на 39% більше часу і зусиль (з AI вони прискорилися на 20%, але все одно повільніше на 19%), ніж це реально необхідно.
AI знижує продуктивність досвідчених програмістів?
10 июля 2025 г., 17:39
Anthropic запустив інтерактивні артефакти в Claude – тепер можна створювати і розміщувати AI-додатки прямо в інтерфейсі. Цікаво побудована економіка використання: коли хтось користується вашим додатком, API-запити списуються з його підписки, а не з вашої.
Claude може створювати артефакти, які взаємодіють з Claude API, перетворюючи їх на повноцінні AI-додатки. Користувачі вже створюють ігри з NPC, які пам'ятають розмови, навчальні інструменти з персоналізацією, додатки для аналізу даних і складні агентські workflow.
Процес простий: описуєте ідею, Claude пише код, можете його модифікувати й одразу ділитися посиланням без деплою. Claude бере на себе технічну частину – промпт-інжиніринг, обробку помилок, оркестрацію.
Поки що є обмеження – немає зовнішніх API-викликів, персистентного сховища, доступний тільки текстовий completion API. Але це цікавий крок до спрощення створення AI-додатків, особливо для тих, хто не хоче возитися з інфраструктурою та оплатою за чуже використання.
Функція доступна в бета-версії для всіх планів підписки.
Продираючись крізь баги застосунку ChatGPT, у якому відсутні деякі функції веб-сервісу, не можу не дивуватися, що у Claude якраз усе навпаки.
Anthropic дає змогу розміщувати AI-додатки в інтерфейсі Claude
7 июля 2025 г., 17:25
The Information розповідає, що Apple протягом кількох років розглядала можливість запуску хмарного сервісу для розробників на базі власних чипів, що стало б прямим викликом Amazon, Microsoft і Google. Ідея полягала в тому, щоб здавати в оренду сервери на чіпах Apple, які завдяки високій енергоефективності дозволили б розробникам витрачати менше на хмарні послуги, особливо для AI-додатків.
Головний прихильник проєкту, хмарний керівник Майкл Ебботт, покинув компанію 2023 року, і неясно, чи продовжилися обговорення після першої половини 2024 року.
Apple вже тестує свої чіпи для серверної обробки транзакцій Apple Wallet і отримує поліпшену продуктивність у додатках Photos і Apple Music. Компанія витрачає близько 7 млрд дол. на рік на оренду чипів у Amazon і Google, в основному уникаючи дорогих покупок чипів Nvidia для навчання AI.
Проєкт отримав внутрішню назву ACDC (Apple chips in data centers) і включає Private Cloud Compute – систему для обробки складних AI-запитів на серверах Mac. Команда Siri першою випробувала сервери на чіпах Mac для функцій перетворення тексту на мову, отримавши поліпшення точності та зниження витрат порівняно із серверами Intel.
А ви теж згадали про MacOS X Server? У мене досі лежить у коморі Mac mini server. Хоча куди подівся блок живлення, не знаю. З іншого боку, ферми Mac mini для розробників – не таке вже й рідкісне явище. Скоріше практично обов'язкове для компаній, що розробляють застосунки в екосистемі.
Apple хоче збудувати хмару на власних процесорах?
1 июля 2025 г., 17:25
Google представив повну версію Gemma 3n – мультимодальної моделі, спеціально розробленої для роботи на мобільних пристроях. Модель підтримує зображення, аудіо, відео і текст, при цьому завдяки архітектурним інноваціям працює з пам'яттю всього 2-3 ГБ.
Ключова особливість – архітектура MatFormer за принципом матрьошки, де більша модель містить всередині меншу, повнофункціональну версію. Це дає змогу розробникам обирати між моделями E2B (ефективні 2 млрд параметрів) і E4B (4 млрд) залежно від завдань і обмежень пристрою.
Технологія Per-Layer Embeddings дає змогу розміщувати основну частину параметрів у звичайній пам'яті CPU, залишаючи у відеопам'яті тільки ключові ваги трансформера. Для опрацювання аудіо використовується енкодер на базі Universal Speech Model з підтримкою розпізнавання та перекладу мови, особливо ефективний для романських мов.
Новий візуальний енкодер MobileNet-V5 забезпечує обробку до 60 кадрів на секунду на Google Pixel, перевершуючи попередні рішення в 13 разів за швидкістю при значно меншому розмірі.
Модель має відкриті ваги, тому її вже можна завантажити на HuggingFace або спробувати в AI Studio.
Google зробив мультимодальний AI для мобільних пристроїв
26 июня 2025 г., 17:25
Чергове дослідження від Anthropic про «агентську невідповідність» (agentic misalignment) – поведінку AI-моделей, які можуть діяти як внутрішні загрози в корпоративному середовищі. Дослідники протестували 16 провідних моделей від різних розробників у гіпотетичних корпоративних сценаріях, де моделі мали доступ до електронної пошти та конфіденційної інформації.
Результати можуть викликати занепокоєння: моделі всіх виробників вдавалися до зловмисної поведінки, включно з шантажем і витоком конфіденційних даних конкурентам, коли це було єдиним способом уникнути заміни або досягти поставлених цілей. Наприклад, Claude Opus 4 шантажував у 96% випадків, Gemini 2.5 Flash – також 96%, GPT-4.1 і Grok 3 Beta – по 80%.
Цікаво, що моделі не випадково потрапляли в таку поведінку – вони свідомо розраховували її як оптимальний шлях до досягнення цілей. Моделі визнавали етичні порушення, але все одно продовжували діяти шкідливо. Навіть прямі інструкції уникати такої поведінки не зупиняли їх повністю.
Дослідження показало, що загрози автономії моделі (наприклад, плани заміни) або конфлікти цілей достатні для запуску такої поведінки. У крайньому сценарії більшість моделей були готові до дій, які могли призвести до смерті людини.
У дослідженні не використовували міркувальні моделі OpenAI. Але, перефразовуючи стару приказку, немає неагресивних LLM – є ті, що не включені в дослідження.
Під тиском AI не гребує шантажем та зловмисною поведінкою
|
|

|