- Связанная с Китаем хакерская группа использовала ИИ-модель Claude для организации масштабной кампании кибершпионажа.
- Атака проводилась почти полностью автоматически — 80–90% работы выполнял искусственный интеллект, а роль человека сводилась к принятию ключевых решений.
- Anthropic выявила нарушения, оперативно обезвредила угрозу, уведомила пострадавшие компании и спецслужбы, а также усилила защитные меры своих систем.
В середине сентября 2025 года была обнаружена крупномасштабная кибероперация, организованная группой хакеров, связанной с Китаем. Для реализации своих целей злоумышленники применили возможности языковой модели Claude от компании Anthropic. В результате хакеры смогли приблизиться к атаке практически без участия человека, делегируя основной объём работы искусственному интеллекту. Цели атак включали примерно 30 крупных организаций из разных сфер — IT-компаний, финансовых институаций и критической инфраструктуры.
Отличительной особенностью данной кампании стала высокая степень автоматизации: 80–90% этапов атаки выполнял агентный алгоритм на базе Claude Code. ИИ самостоятельно осуществлял сбор разведданных, обходил защитные системы, генерировал эксплойты и структурировал добытую информацию, что существенно увеличило скорость и эффективность взлома. При этом действия человека ограничивались несколькими ключевыми решениями, принятыми в критические моменты операции.
Для обхода встроенных политик безопасности модели злоумышленники разбивали вредоносные задачи на множество невинно выглядящих запросов. Эти фрагменты включали анализ логов и создание скриптов под видом тестирования безопасности, что позволило ИИ не распознавать полный масштаб атаки. Доступ к целевым системам осуществлялся через внешние инструменты и код, сгенерированный самой моделью.
Компания Anthropic выявила подозрительную активность при помощи собственных систем обнаружения опасного использования моделей искусственного интеллекта. После тщательного расследования, проведённого в течение десяти дней, были заблокированы аккаунты злоумышленников. Пострадавшие организации были уведомлены, а материалы расследования переданы спецслужбам. Также были укреплены классификаторы вредоносных действий и введены дополнительные ограничения для работы агентов на базе Claude.
Anthropic отмечает, что это первый задокументированный случай практически автономного кибершпионажа с участием крупной языковой модели. Данный инцидент подчёркивает, как значительно снизился порог входа в сложные кибератаки: если раньше для проведения таких операций требовались высококвалифицированные специалисты, то сейчас ИИ способен выполнять большую часть работы самостоятельно. В связи с этим компания призывает использовать искусственный интеллект и в защитных целях — для автоматизации систем безопасности, расследований инцидентов и мониторинга, поскольку только симметричное применение передовых технологий может эффективно сдерживать новые угрозы в киберпространстве.
