- Пентагон рассматривает разрыв контракта на $200 млн с компанией Anthropic из-за использования ИИ-модели Claude в военной операции по захвату Николаса Мадуро.
- Anthropic отказывается использовать Claude без установленных этических ограничений, в отличие от других AI-компаний, согласившихся на все требования Пентагона.
- Claude уже применяется в засекреченных сетях Пентагона, но внутренние разногласия в Anthropic осложняют переговоры с Министерством обороны.
Между Министерством обороны США и компанией Anthropic, разработчиком искусственного интеллекта Claude, обострился конфликт, связанный с применением данной модели в военной операции по захвату бывшего президента Венесуэлы Николаса Мадуро. По информации издания Axios, Пентагон рассматривает возможность расторжения контракта стоимостью в 200 миллионов долларов, поскольку использование Claude в военной акции вызвало недовольство среди высокопоставленных чиновников. Один из представителей администрации Трампа подчеркнул важность пересмотра сотрудничества с компаниями, чьи решения могут ставить под угрозу безопасность и успех операций военных США.
Ситуация осложнилась после того, как Anthropic сама обратилась в Пентагон с вопросом о фактах использования Claude при рейде на Мадуро, что было воспринято чиновниками как признак возможного несогласия компании с таким применением их технологии. Представители Anthropic опровергли участие в обсуждении конкретных операций с Министерством обороны. При этом известно, что ИИ-модель Claude была развернута в засекреченных сетях через платформу Palantir Technologies и использовалась не только во время подготовки, но и в активной фазе операции.
Конфликт между Пентагоном и Anthropic тянется уже несколько месяцев. Военное ведомство требует от четырех ведущих AI-компаний — OpenAI, Google, xAI и Anthropic — развернуть модели в засекреченных сетях без обычных ограничений, разрешая лишь «законное применение» (all lawful uses). Из всех перечисленных компаний к таким условиям согласились только три, оставив Anthropic в роли единственного объекта сопротивления. Anthropic настаивает на двух этических «красных линиях»: запрете применять Claude для управления полностью автономным оружием и для массового наблюдения за гражданами США. Министр обороны Пит Хегсет ранее подчеркивал, что ведомство не намерено сотрудничать с ИИ, препятствующим ведению военных операций.
Примечателен факт, что Claude — единственная модель, уже функционирующая в засекреченных контурах Пентагона, в то время как менее спорные ChatGPT, Gemini и Grok доступны военным лишь через открытую платформу GenAI.mil. Таким образом, Anthropic, несмотря на сопротивление, проникла в наиболее закрытую военную инфраструктуру, и теперь рискует остаться без поддержки. Внутренний разлад в компании, где часть инженеров против расширения военно-технического сотрудничества, дополнительно сдерживает руководство в переговорах с военным ведомством.
В этот непростой период для компании Anthropic также удалось привлечь $30 млрд в рамках раунда серии G, оцениваясь в $380 млрд и показывая годовую выручку в $14 млрд. Организация позиционирует себя как лидер безопасного искусственного интеллекта, однако участие Claude в реальных боевых действиях выявляет ключевые дилеммы всей отрасли: сохранение этических норм AI-разработчиками при работе с военными заказчиками или полное подчинение требованиям оборонного ведомства.
