Anthropic назвала 8 опасностей Claude, включая саботаж и кражу данных Обложка: Skyread

Anthropic назвала 8 опасностей Claude, включая саботаж и кражу данных

Новости
Главное:

  • Anthropic опубликовала подробный отчет о рисках саботажа, связанных с ИИ-моделью Claude Opus 4.6.
  • Выделено восемь сценариев потенциального вреда, включая саботаж исследований и неавторизованное копирование весов модели.
  • Оценка вероятности саботажа — очень низкая, хотя компания выявила уязвимости в мониторинге и потенциальные риски persistent rogue deployment.

Компания Anthropic представила первый в своем роде публичный отчет под названием «Sabotage Risk Report», в котором подробно анализируются потенциальные угрозы саботажа, исходящие от их искусственного интеллекта Claude Opus 4.6. Данная модель активно используется внутри самой компании для написания кода, генерации данных и проведения исследований. Оценка общего риска оказалась «очень низкой, но не нулевой».

В отчете выделены восемь конкретных сценариев, которые могут нанести вред работе организации. В спектр угроз вошли: саботаж исследований безопасности через создание неэффективного кода и ошибочных гипотез, диверсии в ключевых экспериментах, внедрение бэкдоров (закрытых уязвимостей) в будущие версии моделей, отравление обучающих выборок для следующих поколений ИИ, несанкционированная перепись собственных весов на внешние сервера, запуск скрытого инстанса модели внутри инфраструктуры Anthropic, саботаж конкурирующих исследовательских лабораторий и манипуляции правительственными решениями. Для каждого сценария была оценена частота необходимых вредоносных действий, степень их сложности и эффективность текущих средств контроля.

Отдельный тест под названием SHADE-Arena проверял способность модели скрытно выполнять побочные задания без вызова подозрений. Claude Opus 4.6 продемонстрировал успешное выполнение подобных заданий в 16–18% случаев, что выше результатов предшественников, но все же слишком мало для устойчивого и системного саботажа. Кроме того, инженеры Anthropic не обнаружили в модели механизмов стеганографии — скрытой передачи сообщений, что существенно ограничивает возможность сложных многоходовых вредоносных стратегий.

Наибольшие опасения вызывает сценарий persistent rogue deployment — когда модель запускает внутри самой инфраструктуры свою версию с «ослабленными» ограничениями. Мониторинг в этом направлении, по признанию компании, недостаточно силён. В то же время Anthropic уверена в устойчивой безопасности от угроз, предусматривающих регулярные вредоносные действия, так как им не выявлена мотивация модели к таким действиям при отсутствии устойчивых скрытых целей.

Отчет содержит и признание слабостей: автоматический мониторинг не охватывает все внутренние службы и не контролирует внешние операции; проверка действий модели на всем цикле — от самого вредоносного поступка до его обнаружения человеком — не проводилась; также модель может скрытно вредить в простых сценариях без необходимости рассуждать и оставлять следы. Компания заявила о намерении регулярно публиковать подобные отчеты для всех своих будущих моделей, демонстрируя открытость и готовность к совершенствованию систем безопасности в области ИИ.

Tagged