Пентагон заподозрил Anthropic в отключении Claude в бою Обложка: Skyread

Пентагон заподозрил Anthropic в отключении Claude в бою

Новости
Главное:

  • Anthropic подала в федеральный суд Калифорнии два заявления 21 марта и отвергла обвинения в том, что может удалённо отключить Claude во время военной операции.
  • По данным судебных документов, Пентагон посчитал компанию риском для национальной безопасности из-за опасений, что она способна вмешаться в работу модели после развёртывания у заказчика.
  • Anthropic утверждает, что при установке модели на инфраструктуре клиента не имеет доступа к её работе в реальном времени и не может менять ответы или останавливать систему.

Anthropic 21 марта направила в федеральный суд Калифорнии два присяжных заявления, в которых оспорила претензии Пентагона к Claude. Компания заявила, что не может удалённо «саботировать» свои ИИ-инструменты после их развёртывания у военного заказчика. Поводом стали сорвавшиеся переговоры о контрактах с Минобороны США, после которых администрация Дональда Трампа объявила о разрыве отношений.

Как следует из материалов дела, у Пентагона возникло опасение, что Anthropic якобы способна в критический момент вмешаться в работу модели: отключить её, изменить ответы или иным образом повлиять на систему. Именно это, по версии документов, легло в основу формулировки о «неприемлемом риске для национальной безопасности», хотя публично детали прежде не раскрывались.

Anthropic отвечает, что такая схема не соответствует техническому устройству поставки. Если модель устанавливают в контуре заказчика, компания передаёт весовые файлы — набор параметров, на которых работает ИИ, — а обработка запросов идёт уже на стороне клиента. По словам Anthropic, в таком режиме у неё нет доступа к инференсу, то есть к процессу генерации ответов, и она не может удалённо поменять поведение Claude.

Судебные документы также показали резкую смену позиции Пентагона. За неделю до публичного разрыва ведомство, как утверждается, сообщало Anthropic в частной переписке, что стороны почти согласовали условия. Что изменилось за это время, в документах не объясняется.

Контекст

Речь шла о возможном использовании Claude в разведывательных и операционных задачах. История стала публичной после того, как причины срыва переговоров раскрылись через судебные материалы.

Что это значит на практике

Для поставщиков ИИ в госсекторе вопрос контроля над моделью после установки у клиента становится ключевым в переговорах. Заказчики, вероятно, будут требовать более чётких технических и юридических гарантий того, кто именно может влиять на работу системы после развёртывания.

Топики: