Пентагон пытался читать личные данные через Claude — The Atlantic Обложка: Skyread

Пентагон пытался читать личные данные через Claude — The Atlantic

Новости
Главное:

  • Пентагон хотел использовать ИИ Claude от Anthropic для анализа личных данных американцев, включая поисковые запросы, GPS и транзакции.
  • Anthropic отказалась внедрять ИИ в автономное оружие, указывая на риски стирания грани между анализом данных и принятием боевых решений.
  • OpenAI после разрыва Anthropic с Пентагоном подписала свой контракт на похожих условиях, несмотря на публичные заявления о солидарности с отказом Anthropic.

В последних переговорах между военным ведомством США и компанией Anthropic произошел серьезный конфликт, связанный с использованием искусственного интеллекта Claude для работы с личными данными граждан. Как сообщает The Atlantic, Пентагон на финальной стадии обсуждений выразил желание применять ИИ для глубокого анализа больших массивов персональной информации: поисковых запросов, истории в Google, перемещений через GPS и финансовых операций по кредитным картам. Кроме того, предполагалась возможность перекрестного сопоставления этих данных. Однако руководство Anthropic решительно отвергло такое требование, посчитав его неприемлемым с этической точки зрения.

Параллельно велись переговоры об использовании ИИ в военных системах автономного оружия. В качестве компромисса было предложено держать ИИ исключительно в облачной инфраструктуре, без интеграции в дроны и другие боевые платформы, чтобы модели могли анализировать разведданные, но не принимали решения об уничтожении целей. Anthropic встретила эту идею с безотлагательным отказом, аргументируя свое решение тем, что в современных военных сетях граница между облачными вычислениями и операционными платформами представляет собой плавный переход. Так, управление дронами происходит через mesh-сети в режиме реального времени, и программа Пентагона Joint Warfighting Cloud Capability намеренно приближает вычислительные мощности к зоне боевых действий. В результате даже облачные вычисления не могут гарантировать разделение функций анализа и боевых решений.

Примечательно, что именно данный «облачный компромисс» стал основой контракта, который OpenAI заключила с Пентагоном спустя несколько часов после разрыва Anthropic. При этом лидер OpenAI Сэм Альтман накануне публично выражал солидарность с подходом Anthropic, а компания подчеркивала важность «развертывания только в облаке» для обеспечения безопасности. Однако уже к моменту публикации статьи сотни сотрудников OpenAI подписали открытое письмо, поддерживающее те же ограничения, которые ранее выдвигала Anthropic.

Росс Андерсен, автор The Atlantic, подводит итоги: в ближайшие дни Сэму Альтману, возможно, придется объяснять своей команде, почему подход, который Anthropic отвергла без долгих раздумий, для него оказался приемлемым и реалистичным. Этот случай демонстрирует сложность этических и технических вопросов при разработке ИИ для военных нужд, а также напряженность между корпоративными решениями и общественными ожиданиями.

Tagged