- OpenAI фиксирует стремительный рост кибернавыков своих ИИ-моделей, которые становятся потенциальным инструментом для хакерских атак.
- По внутренним тестам CTF модели GPT-5.1-Codex-Max продемонстрировали значительное повышение способности решать сложные задачи взлома — до 76% успешных решений.
- Компания разрабатывает многоуровневую систему контроля и защиты, включая программу «доверенного доступа» для специалистов по кибербезопасности и создание совета Frontier Risk Council.
OpenAI опубликовала предупреждение о том, что каждая новая версия их искусственного интеллекта постепенно приобретает возможности, превращающие её в кибероружие. Внутренние тестирования в формате CTF показали заметное улучшение способности моделей находить уязвимости и разрабатывать сложные эксплойты, что усиливает риски использования таких ИИ для масштабных атак на цифровую инфраструктуру.
В частности, в ходе испытаний в августе 2025 года модель GPT-5 успешно справлялась с 27% задач по взлому, а через три месяца новая версия GPT-5.1-Codex-Max достигла уже 76% успешных кейсов. Это почти трёхкратный рост за квартал. OpenAI прогнозирует, что последующие модели продолжат развиваться в том же направлении, способствуя возникновению инструментов, способных создавать рабочие эксплойты для хорошо защищённых систем и участвовать в сложных скрытых атаках на инфраструктуру.
При этом компания подчёркивает свою приверженность этическим принципам и намерена использовать данные достижения во благо, помогая защитникам информационной безопасности, а не злоумышленникам. Для этого OpenAI вводит ряд мер, включая обучение моделей отказу от выполнения явно вредоносных запросов при сохранении полезности для аудита и защиты, внедрение систем мониторинга и обнаружения злоупотреблений, а также регулярные тренировки по выявлению уязвимостей с привлечением внешних экспертов.
Особое значение имеет инициатива Trusted Access, предоставляющая специалистам по киберзащите расширенные возможности работы с ИИ-моделями в оборонительных целях. Также формируется Frontier Risk Council — консультативный совет из практиков кибербезопасности, который будет оценивать риски, разрабатывать защитные меры и при необходимости расширять свою компетенцию в других сферах, связанных с потенциальными угрозами современных ИИ.
OpenAI подчёркивает, что вызов киберугроз актуален не только для их продуктов — подобные опасности могут исходить от любых великих моделей в индустрии. Для комплексного решения проблемы компания сотрудничает с другими ведущими лабораториями через инициативу Frontier Model Forum, поддерживает независимые исследования и аудит ИИ, а также планирует долгосрочные проекты для усиления безопасности критической цифровой инфраструктуры. Подход включает не только собственные разработки, но и гранты, инициативы для исследователей, а также поддержку open source-сообщества.
