16+
Понедельник, 9 марта 2026
  • BRENT $ 115.65 / ₽ 9154
  • RTS1135.95
8 марта 2026, 19:49 Политика

Пентагон разорвал контракт с ИИ-стартапом Anthropic и включил его в список «ненадежных поставщиков»

Лента новостей

Anthropic не разрешала использовать свои инструменты для массовой слежки за американскими гражданами, а также для управления автономным вооружением. Пентагон настаивал на снятии этих ограничений. Планирование операции против Ирана также проходило на мощностях Anthropic. Следует ли говорить о системном ИИ-кризисе в военной машине США?

Пентагон. США.
Пентагон. США. Фото: Zuma/ТАСС

ИИ-кризис разгорается в вооруженных силах США. Пентагон официально включил своего основного подрядчика — ИИ-стартап Anthropic — в список «ненадежных поставщиков». В компании намерены оспаривать это решение в суде. Как отмечает The Wall Street Journal, обычно в этом списке оказываются компании из недружественных США государств.

Конфликт Anthropic с Пентагоном разгорелся из-за разногласий по поводу применения технологий компании в военных целях. Anthropic не разрешала использовать свои инструменты для массовой слежки за американскими гражданами, а также для управления автономным вооружением. В Пентагоне, в свою очередь, настаивали на снятии всех установленных компанией ограничений.

В конце февраля Дональд Трамп в своей соцсети Truth Social призвал американские госкорпорации разорвать сотрудничество с Anthropic. Спустя несколько часов после этого утилита Claude, разработанная Anthropic, была использована в военной операции против Ирана. Также эта технология использовалась при захвате президента Венесуэлы Николаса Мадуро в начале января этого года.

Одновременно с этим Пентагон заключил соглашение о сотрудничестве с другим ИИ-гигантом — OpenAI. Правда, спустя несколько дней после его подписания гендиректор компании Сэм Альтман выдвинул к Пентагону те же требования, что и Anthropic, — в частности, документально оформить невозможность слежки за гражданами.

Политолог-американист Малек Дудаков считает происходящее симптомом глубокого кризиса в вооруженных силах США:

Малек Дудаков Малек Дудаков политолог-американист «Проблема в том, что утилита Cloud от компании Anthropic уже очень глубоко интегрирована в систему Пентагона и всех его подрядчиков. То есть, например, вот даже если мы возьмем самую известную компанию сейчас в сфере искусственного интеллекта — это Palantir, который как раз тоже активно используется Пентагоном и на Украине, и на Ближнем Востоке, — то у Palantir есть свой главный продукт, называется Mosaic, и Mosaic как раз использует алгоритмы Anthropic. Поэтому даже Palantir придется сейчас искать некую альтернативу. И конечно, это займет очень много времени. Не совсем понятно, почему именно сейчас разгорелся этот самый кризис в условиях нынешнего конфликта на Ближнем Востоке. Но я бы не исключал того, что Anthropic могла специально пойти на разрыв отношений, потому что они не хотели быть ответственными за все последствия нынешней эскалации. Команда Трампа при этом, очевидно, использовала искусственный интеллект и летом 2025 года, когда они тогдашнюю операцию против Ирана планировали, ну и сейчас. И, как многие полагают, провалы Соединенных Штатов в этой войне с Ираном, их ожидание того, что молниеносным ударом удастся всех победить, но этого не случилось, — связано в том числе и с тем, что они, в общем-то, пользовались услугами искусственного интеллекта. Искусственный интеллект пообещал, что это все случится, — этого не случилось. То есть он ошибся. Я не исключаю того, что в будущем как раз именно на искусственный интеллект будут ссылаться представители команды Трампа, когда им придется оправдываться за все провалы в ходе этого конфликта. То есть я представляю себе сценарий, при котором, скажем, осенью или весной 2027 года будут уже слушания по импичменту Трампа. В конгрессе демократы берут большинство на предстоящих выборах в конгресс, и как раз представители команды Трампа будут во всем винить искусственный интеллект во всех смертях американских военных и во всех провалах в этом конфликте с Ираном. Для них это такая легкая мишень. Но в целом ситуация, конечно, очень тревожная, потому что положились на искусственный интеллект. Он выдал определенные результаты. Там очевидно, что это были частично галлюцинации, частично анализ, основанный на ложных данных, которые загоняли в эту систему. Ну и в итоге на основе данных решений было все американское планирование в отношении войны с Ираном задействовано и в конечном счете привело к грандиозному провалу. И сколько таких еще прецедентов будет в будущем, никто не знает. Но это в целом картина деградации нынешней стратегической мысли в Соединенных Штатах, которая сейчас проявляется во всей красе».

Включение Anthropic в список ненадежных поставщиков ставит под угрозу ее контракт с ведомством на сумму 200 млн долларов, а также запрещает господрядчикам использовать ее технологии в проектах, связанных с вооруженными силами США. При этом инструменты Anthropic по-прежнему могут использоваться в проектах, не связанных с Пентагоном.

Рекомендуем:

Фотоистории

Рекомендуем:

Фотоистории
BFM.ru на вашем мобильном
Посмотреть инструкцию