- Компания Anthropic обвинила три китайские ИИ-компании — DeepSeek, Moonshot AI и MiniMax — в использовании более 24 тысяч фейковых аккаунтов с моделью Claude AI для совершенствования собственных моделей.
- Атаки проводились методом дистилляции — техникой извлечения знаний из модели конкурента, что позволяет копировать её функционал, и нацелены на ключевые возможности Claude, включая агентное мышление и программирование.
- Anthropic предупреждает о рисках подобных практик для национальной безопасности и призывает к скоординированному ответу со стороны индустрии, поставщиков облачных услуг и законодателей.
Компания Anthropic, разработчик модели искусственного интеллекта Claude, публично обвинила сразу три китайские лаборатории — DeepSeek, Moonshot AI и MiniMax — в проведении масштабных атак на свою систему. По данным Anthropic, злоумышленники создали более 24 тысяч поддельных аккаунтов для взаимодействия с Claude и осуществили свыше 16 миллионов запросов с целью использовать метод «дистилляции» и нелегально воспроизвести возможности модели в своих продуктах.
Метод дистилляции широко применяется в индустрии ИИ для создания компактных и экономичных версий моделей, однако компании-конкуренты могут злоупотреблять этой практикой, перехватывая интеллектуальную собственность и воспроизводя технологии без лицензии. Как отмечает Anthropic, китайские конкуренты целенаправленно обращались к наиболее сложным и ценным функциям Claude — агентному мышлению, использованию программных инструментов и созданию программного кода.
DeepSeek, Moonshot AI и MiniMax провели миллионы взаимодействий с Claude, тщательно анализируя и улучшая свои модели с помощью украденных данных. Например, DeepSeek сосредоточился на улучшении логики и согласованности в работе модели, Moonshot AI — на развитии агентных систем и компьютерного зрения, а MiniMax — на программировании и оркестрации процессов. Аналитики Anthropic отметили, что MiniMax направляла почти половину трафика для перехвата возможностей новейших версий Claude.
Наряду с обвинениями Anthropic поднимает важные вопросы экспортного контроля американских технологий. Для больших вычислительных ресурсов, необходимых для подобных атак, крайне важен доступ к современным чипам ИИ. На этом фоне продолжаются политические дебаты о поставках высокотехнологичных процессоров из США в Китай. Эксперты, такие как Дмитрий Альперович, отмечают, что практика дистилляции и кражи интеллектуального капитала из американских моделей является общепризнанной в индустрии, и ограничение экспорта чипов — единственная мера для сдерживания этого процесса.
Anthropic предостерегает, что подобные методы не только наносят ущерб технологическому превосходству США, но и создают серьёзные риски национальной безопасности. Модели, полученные через незаконную дистилляцию, зачастую лишены встроенных средств защиты, которые предотвращают злонамеренное использование искусственного интеллекта для разработки биологического оружия, хакерских атак и средств манипуляции общественным мнением. В условиях, когда модели распространяются с открытым исходным кодом, опасность масштабирования таких угроз только возрастает.
Таким образом, случаи, выявленные Anthropic, акцентируют внимание на необходимости объединения усилий индустрии, органов власти и поставщиков облачных сервисов для защиты интеллектуальной собственности и предотвращения злоупотреблений в быстрорастущей сфере искусственного интеллекта.
