- OpenAI опубликовала детали контракта с Министерством обороны США на развертывание ИИ-моделей в засекреченных сетях.
- В контракте прописаны три ключевых запрета: массовая слежка за гражданами, автономное оружие и системы социального контроля.
- OpenAI критикует подход конкурентов, включая Anthropic, и подчёркивает сохранение полного контроля над безопасностью своих моделей.
Компания OpenAI раскрыла подробности недавнего соглашения с Министерством обороны США, касающегося внедрения своих искусственных интеллектов в закрытых правительственных сетях. В опубликованном документе подробно описаны условия контракта и меры защиты, которые компания считает более жёсткими и ответственными по сравнению с аналогичными соглашениями, в том числе с контрактом конкурирующей лаборатории Anthropic.
В числе ключевых ограничений, предусмотренных контрактом, – жёсткий запрет использования технологий OpenAI для массового наблюдения за гражданами США, разработки автономного оружия и систем, напоминающих модели социального кредита. Это своего рода красные линии, гарантирующие соблюдение этических принципов и законов при применении ИИ. При этом OpenAI сохраняет полный контроль над безопасностью и внедрением своих технологий, предоставляя возможность использования моделей лишь через защитное облачное решение и обеспечивая работу сотрудников с секретными допусками в рамках контрактных обязательств.
Компания обращает внимание на отличие своего подхода от конкурентов, включая Anthropic и их ИИ-платформу Grok, работающую в сетях Пентагона с февраля 2024 года на принципах «любого законного использования». В то время как OpenAI настаивает на внутренних технических гарантиях безопасности, конкуренты, по их мнению, полагаются в основном на политику использования, ослабляя тем самым контрольные механизмы.
OpenAI подчёркивает, что не считает Anthropic угрозой для цепочки поставок и высказала надежду, что конкуренты учтут опыт заключения данного типа сделок. Между тем компания отмечает, что расхождения с Anthropic связаны с подходом к нормативным основам защиты от слежки. В то время как Anthropic требует контрактных ограничений, выходящих за рамки закона, OpenAI ориентируется на действующие нормы — Четвёртую поправку, закон о наблюдении FISA и директивы Министерства обороны.
Таким образом, OpenAI демонстрирует уверенность в качестве и надёжности своего предложения, позиционируя контракт с Пентагоном как наиболее сбалансированный и отвечающий требованиям национальной безопасности и этики.
