- Министерство обороны США официально классифицировало компанию Anthropic и её ИИ-продукты как риск для цепочки поставок страны.
- Такое решение последовало после отказа генерального директора Anthropic Дарио Амодея предоставить Пентагону полный доступ к системам искусственного интеллекта.
- Anthropic намерена оспаривать это решение в суде, а отраслевые эксперты и сотрудники ведущих IT-компаний выражают обеспокоенность и требуют пересмотра позиции военного ведомства.
Министерство обороны США объявило компанию Anthropic, одного из ключевых разработчиков искусственного интеллекта, организацией, представляющей угрозу для национальной цепочки поставок. Такое решение стало следствием конфликта между Пентагоном и руководством Anthropic, в частности после того, как генеральный директор Дарио Амодей отказался предоставить военным полный доступ к ИИ-системам компании.
Обычно категория «риск для цепочки поставок» присваивается иностранным противникам, поэтому присвоение этого статуса американской фирме стало беспрецедентным шагом. Согласно новому требованию, все компании и федеральные агентства, работающие с Министерством обороны, должны подтвердить, что не используют решения Anthropic в своей деятельности. Это существенно ограничивает использование ИИ-моделей компании в государственных проектах.
Anthropic — одна из немногих лабораторий, обладающих технологиями, готовыми к применению в секретных военных миссиях. Их ИИ-модель Claude применяется в рамках интеллектуальной системы Maven от Palantir, на которую опираются американские военные операторы на Ближнем Востоке, включая операции в Иране. Оценка рисков, выдвинутая Пентагоном, ставит под вопрос дальнейшее сотрудничество и работу компании с военным ведомством.
Бывший советник президента США Дональда Трампа Дин Болл охарактеризовал действия Министерства обороны как отказ от стратегической ясности в пользу внутреннего «трайбализма», который, по его мнению, проявляется даже в более негативном отношении к отечественным инновациям, чем к иностранным оппонентам. В свою очередь, сотни сотрудников таких технологических гигантов, как Google и OpenAI, уже выступили с призывом к Пентагону отозвать обвинения против Anthropic и к Конгрессу — противодействовать злоупотреблениям полномочиями в отношении американских компаний.
В контексте данной ситуации стоит отметить и недавнее соглашение OpenAI с военным ведомством, позволяющее использовать их ИИ в законных целях, что вызвало рост числа удалений ChatGPT, а Anthropic, напротив, заняла первое место по популярности в американском App Store. Амодей, глава Anthropic, охарактеризовал решение Минобороны как «ответные и карательные», связывая конфликт с отказом компании поддерживать определённые политические фигуры, в то время как руководство OpenAI активно выражает политическую позицию в пользу Дональда Трампа.
Anthropic также подчёркивает, что современные ИИ-модели недостаточно надёжны для применения в автономном оружии и выражает обеспокоенность в связи с использованием ИИ для массового наблюдения, что, по мнению компании, нарушает основные права человека. Несмотря на возникший конфликт, компания заключила с Министерством обороны договор на $200 млн, но после расторжения соглашения военные дали шестимесячный переходный период для отказа от использования технологий Anthropic.
На фоне ситуации Anthropic планирует обжаловать решение военного ведомства в суде, надеясь на восстановление статуса и возможности для дальнейшего развития и сотрудничества в рамках национальной безопасности. Развитие событий будет иметь важные последствия для регулирования и внедрения ИИ в оборонную сферу США и, возможно, окажет влияние на мировую практику законодательного контроля над технологиями искусственного интеллекта.
