- Anthropic отказалась снимать ограничения на военное применение своего ИИ Claude по требованию Пентагона.
- Компания запрещает использовать Claude для массовой слежки и автономного управления оружием.
- Anthropic готова к судебным разбирательствам из-за угроз применения Закона о военном производстве США.
Компания Anthropic выступила с публичным заявлением, в котором отвергла ультиматум Министерства обороны США. Пентагон требовал снять все ограничения на военное использование модели искусственного интеллекта Claude, иначе угрожал расторгнуть контракт на сумму 200 миллионов долларов, признать компанию «риском для цепочки поставок» и применить Закон о военном производстве (Defense Production Act). Несмотря на угрозы, Anthropic заняла твердую позицию и отказалась выполнять эти требования.
Глава компании Дарио Амодеи подчеркнул, что для Anthropic существуют две «красные линии». Во-первых, Claude не должен использоваться для массовой слежки за гражданами США. Во-вторых, ИИ не может применяться для управления полностью автономным оружием, способным самостоятельно выбирать и поражать цели без участия человека. В то же время Амодеи отметил, что компания не отказывается от сотрудничества с военными: Anthropic является первой ИИ-компанией, которая развернула свои модели в секретных сетях и создала специализированные версии для национальной безопасности.
Амодеи акцентирует внимание на двух основных аргументах в поддержку своей позиции. Ценностный аспект заключается в том, что массовая слежка посредством искусственного интеллекта противоречит демократическим свободам, а законодательство не успевает регулировать стремительно развивающиеся технологии. Технический аргумент указывает на то, что современные ИИ-модели еще не достаточно надежны для автономного управления летальным оружием. Компания предлагала совместные исследования с целью повысить надежность, однако военное ведомство отвергло это предложение.
Руководитель Anthropic охарактеризовал угрозы министра обороны Пита Хегсета как «внутренне противоречивые», поскольку с одной стороны компания объявляется угрозой безопасности, а с другой – признаётся незаменимой для национальной обороны. Аналитики и эксперты, включая бывшего советника по ИИ при администрации Трампа Дина Болла, назвали ситуацию критической и «безумной». Известно, что Пентагон сильно зависит от Claude: именно эта модель активно используется в секретных контурах. По признанию официальных лиц, диалог с Anthropic продолжается исключительно из-за высокой востребованности их технологии.
Anthropic стала последней из крупных лабораторий искусственного интеллекта, отказавшейся подписывать соглашение с военным ведомством о «любом законном использовании» технологии. Конкуренты компании – OpenAI, Google и xAI – уже дали согласие на подобные условия. В случае применения Закона о военном производстве против Anthropic, компания планирует обеспечить плавный переход, чтобы не нарушать текущие военные операции, но при этом ее юристы предупреждают о скором и серьезном судебном разбирательстве. Этот случай может стать прецедентом в регулировании взаимоотношений между государством и технологическими компаниями в сфере ИИ.
