Пентагон офіційно визначив Anthropic як «ризик ланцюга постачання»

Адміністрація Трампа виконує свою обіцянку позначити компанію штучного інтелекту Anthropic як ризик у ланцюзі постачань у безпрецедентному кроці, який може змусити інших урядових підрядників припинити використання чатбота Claude.

Рекомендоване відео


Пентагон у заяві в четвер повідомив, що він «офіційно повідомив керівництво Anthropic, що компанія та її продукти вважаються ризиком у ланцюзі постачань, з негайним ефектом».

Рішення, здавалося, закрило можливість подальших переговорів з Anthropic, майже через тиждень після того, як президент Дональд Трамп і міністр оборони Піт Хегсет звинуватили компанію у загрозі національній безпеці.

Трамп і Хегсет оголосили про низку погроз покарання минулої п’ятниці, напередодні війни з Іраном, після того, як генеральний директор Anthropic Даріо Амодей відмовився відступити через побоювання, що продукти компанії можуть бути використані для масового спостереження за американцями або автономної зброї.

Амодей у заяві в четвер зазначив, що «ми не вважаємо цю дію юридично обґрунтованою і не бачимо іншого виходу, окрім як оскаржити її у суді».

У заяві Пентагону йдеться: «це стосувалося однієї фундаментальної принципу: військові повинні мати можливість використовувати технології для всіх законних цілей. Військові не дозволять постачальнику втручатися у командний ланцюг, обмежуючи законне використання критичної можливості і ставлячи під ризик наших військових.»

Амодей заперечив, що вузькі винятки, яких прагне Anthropic, щоб обмежити спостереження та автономну зброю, «стосуються високорівневих сфер використання, а не операційного прийняття рішень.»

Він зазначив, що у останні дні відбулися «продуктивні розмови» з Пентагоном щодо того, чи зможе компанія продовжувати використовувати Claude або ж встановити «гладкий перехід», якщо угода не буде досягнута. Трамп дав військовим шість місяців на поступове виключення Claude, який вже широко використовується у військових і національних безпекових платформах. Амодей заявив, що пріоритетом є забезпечення того, щоб військові не були « позбавлені важливих інструментів у розпал великих бойових операцій.»

Деякі військові підрядники вже припинили співпрацю з Anthropic, зіркою у технологічній галузі, яка продає Claude різним бізнесам і урядовим агентствам. Lockheed Martin заявила, що «буде слідувати вказівкам Президента та Міністерства оборони» і розгляне інших постачальників великих мовних моделей.

«Ми очікуємо мінімальних впливів, оскільки Lockheed Martin не залежить від жодного окремого постачальника LLM для будь-якої частини нашої роботи», — повідомила компанія.

Як саме Міністерство оборони інтерпретуватиме обсяг ризику, поки що незрозуміло. Амодей зазначив, що повідомлення, яке Anthropic отримала від Пентагону у середу, показує, що воно застосовується лише до використання Claude клієнтами як «безпосередня частина» їхніх військових контрактів.

Microsoft заявила, що її юристи вивчили цю норму і компанія «може продовжувати співпрацю з Anthropic щодо проектів, не пов’язаних із обороною.»

Пентагон піддається критиці за своє рішення

Рішення Пентагону застосувати правило, спрямоване на боротьбу з ризиками у ланцюзі постачань, що виникають через іноземних противників, викликало широку критику. Федеральні кодекси визначили ризик у ланцюзі постачань як «ризик, що противник може саботувати, зловмисно ввести небажану функцію або інакше підривати систему» з метою її порушення, зниження або шпигунства.

Джорджина Сенаторка Кірстен Гіллібранд, демократ із Нью-Йорка і член Комітету з озброєнь Сенату та Комітету з розвідки Сенату, назвала це «небезпечною зловживанням інструментом, призначеним для боротьби з технологіями, контрольованими противником.»

«Ця безвідповідальна дія є короткозорою, самовбивчою і дарує нашому противнику цінний подарунок», — йдеться у її письмовій заяві у четвер.

Ніл Чілсон, колишній головний технолог Федеральної торгової комісії від Республіканців, який тепер керує політикою штучного інтелекту в Інституті багатства, сказав, що це рішення виглядає як «масивне перевищення повноважень, що шкодитиме як сектору штучного інтелекту в США, так і здатності військових отримувати найкращі технології для американських військових.»

Раніше того ж дня група колишніх посадовців оборони та національної безпеки надіслала лист американським законодавцям із «серйозною ознакою занепокоєння» щодо цього позначення.

«Використання цієї влади проти американської компанії є глибоким відхиленням від її початкового призначення і створює небезпечний прецедент», — йдеться у листі колишніх посадовців і експертів з політики, зокрема колишнього директора ЦРУ Майкла Хейдена та відставних лідерів ВПС, армії та флоту.

Вони додали, що таке позначення має на меті «захистити США від проникнення іноземних противників — від компаній, підконтрольних Пекіну або Москві, а не від американських інноваторів, що працюють прозоро відповідно до закону. Застосування цього інструменту для штрафування американської компанії за відмову зняти засоби захисту від масового внутрішнього спостереження та повністю автономної зброї — це категорійна помилка із наслідками, що виходять далеко за межі цього конфлікту.»

Anthropic зазнає зростання популярності серед споживачів

Втративши великі партнерства з оборонними підрядниками, Anthropic зазнав зростання кількості завантажень серед споживачів за останній тиждень через підтримку моральної позиції компанії. За словами компанії, понад мільйон людей щодня реєструвалися для використання Claude цього тижня, піднявши її вище за ChatGPT від OpenAI та Gemini від Google як найпопулярніший додаток штучного інтелекту у понад 20 країнах у магазині додатків Apple.

Конфлікт із Пентагоном також ще більше поглибив гостру конкуренцію Anthropic із OpenAI, яка почалася, коли колишні керівники OpenAI, включно з Амодеєм, заснували Anthropic у 2021 році.

Через кілька годин після покарання Anthropic минулої п’ятниці, OpenAI оголосила про угоду, яка фактично замінює Anthropic на ChatGPT у секретних військових середовищах.

OpenAI заявила, що прагне до подібних захистів від внутрішнього спостереження та повністю автономної зброї, але згодом довелося внести зміни до своїх угод, що змусило генерального директора Сема Альтмана сказати, що він не повинен був поспішати з угодою, яка «здавалася спекулятивною і недбалогою.»

Амодей також висловився щодо своєї участі у тому «складному дні для компанії», заявивши у четвер, що хоче «безпосередньо вибачитися» за внутрішню записку, яку він надіслав співробітникам Anthropic і яка критикувала поведінку OpenAI та натякала, що Anthropic карають за відмову давати «диктаторське хвалення» Трампу.

Приєднуйтесь до нас на Форумі інновацій у сфері праці Fortune 19–20 травня 2026 року в Атланті. Наступна ера інновацій у сфері праці вже тут — і старий сценарій переписується. На цьому ексклюзивному, енергійному заході зберуться найінноваційніші лідери світу, щоб дослідити, як штучний інтелект, людство і стратегія знову змінюють майбутнє роботи. Реєструйтеся зараз.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити