Як повідомляє REUTERS, Міністерство оборони США, яке адміністрація Трампа офіційно називає Департаментом війни, присвоїло лабораторії штучного інтелекту Anthropic статус загрози для ланцюга постачання.
Це рішення набуває чинності негайно та забороняє державним підрядникам використовувати технології компанії у будь-яких роботах для американських військових. Причиною розриву став багатомісячний конфлікт щодо етичних обмежень АІ Claude, які Anthropic відмовилася зняти. Пентагон вимагав можливості використовувати модель для функціонування автономної зброї та масового стеження, тоді як розробник наполягав на збереженні запобіжників проти мілітаризації.
«Це обмеження має вузьку сферу застосування. Воно чітко стосується лише використання Claude клієнтами як прямої частини контрактів із Департаментом війни, а не всього використання Claude клієнтами, які мають такі контракти», у своїй заяві підкреслив Даріо Амодеї (Dario Amodei), генеральний директор Anthropic. Компанія вже оголосила про намір оскаржити це рішення в суді.
Ситуація є екстраординарною, оскільки Anthropic була однією з перших компаній, що погодилася працювати з військовими. За даними джерел, технології лабораторії наразі залучені до підтримки операцій в Ірані, де АІ допомагає в аналізі розвідувальних даних та плануванні місій.
Платформа Maven Smart Systems компанії Palantir, що забезпечує аналіз цілей та наведення зброї, використовує код Claude у своїх робочих процесах. Проте Еміль Майкл (Emil Michael), технічний директор Пентагону, заявив, що жодних активних перемовин з Anthropic зараз не ведеться.
Конфлікт перейшов у публічну площину після витоку внутрішньої записки Даріо Амодеї (Dario Amodei), у якій він припустив, що ворожість чиновників викликана тим, що «ми не висловлювали Трампу похвал у диктаторському стилі».
Компанія Microsoft вже підтвердила через свого речника, що продукти Anthropic залишаться доступними для інших комерційних замовників через сервіси M365 та GitHub, оскільки заборона не поширюється на цивільний сектор.
Статус, наданий Anthropic, раніше застосовувався Вашингтоном майже виключно до іноземних структур, таких, наприклад, як китайський телекомунікаційний гігант Huawei.
Рішення Пентагону щодо Anthropic демонструє радикальну зміну державної політики США у сфері регулювання АІ, де етичні принципи розробників тепер розглядаються як перешкода національній безпеці. Внесення американської компанії до списку загроз нарівні з іноземними ворогами створює прецедент, який змусить інші лабораторії обирати між лояльністю до урядових стандартів та власними безпековими кодексами. Для Anthropic, яка залучила інвестиції на суму в кілька міліардів доларів від таких гігантів, як Amazon та Microsoft, цей розрив може стати серйозним фінансовим випробуванням, попри збереження цивільних контрактів.
Втрата доступу до військових бюджетів, які обчислюються в міліардам , суттєво послаблює позиції компанії у порівнянні з конкурентами, які можуть виявитися більш гнучкими у питаннях розробки автономних бойових систем.
Використання Claude в операціях в Ірані та в системі Maven від Palantir підтверджує, що сучасна війна вже неможлива без глибокої інтеграції великих мовних моделей, проте тепер Пентагон прагне повного контролю над кодом без сторонніх етичних обмежень.
Публічні звинувачення керівництва Anthropic у політичному тиску з боку адміністрації Трампа лише підсилюють напругу між Кремнієвою долиною та Вашингтоном. В кінцевому підсумку цей кейс може призвести до формування двох паралельних ринків АІ: «білого», з жорсткими етичними нормами для бізнесу, та «мілітаризованого», де єдиним обмеженням є ефективність виконання бойових завдань. Перехід до такої моделі у 2026 році означає фактичне припинення спроб глобального регулювання безпеки АІ, оскільки військові пріоритети стають домінантними над будь-якими іншими міркуваннями.