- OpenAI представила GPT-5.3-Codex-Spark — облегчённую версию своей кодировочной модели, оптимизированную для работы в реальном времени.
- Модель генерирует более 1000 токенов в секунду и работает на специализированном чипе Cerebras Wafer Scale Engine 3, а не на традиционных GPU.
- Spark значительно быстрее, но уступает в точности старшей версии GPT-5.3-Codex; доступна для подписчиков ChatGPT Pro и ограниченного круга партнёров.
OpenAI официально анонсировала выпуск GPT-5.3-Codex-Spark — уменьшенной и оптимизированной для оперативного взаимодействия модели на базе флагманской версии GPT-5.3-Codex. Главной особенностью новинки стала высокая скорость генерации текста — свыше 1000 токенов в секунду. Важным отличием от прежних решений является использование специализированного процессора Cerebras Wafer Scale Engine 3, что отметил и производитель чипа в заявлении о сотрудничестве с OpenAI, объявленном в январе текущего года.
По задумке разработчиков, Codex-Spark не призвана заменять более мощную GPT-5.3-Codex, а выступает в роли дополнительного инструмента для интерактивной работы над кодом. В отличие от базовой версии, которая рассчитана на долгосрочное выполнение сложных заданий и требует времени до 16 минут, Spark оптимальна для быстрого внесения правок, рефакторинга и итераций с мгновенной обратной связью. По данным OpenAI, скорость генерации текста ускорена в 15 раз, время отклика уменьшено на 50%, а задержки в обмене данными — на 80%, что обеспечивается переходом на постоянное WebSocket-соединение.
Тем не менее, рост скорости сопровождается снижением точности. На инженерном бенчмарке SWE-Bench Pro GPT-5.3-Codex-Spark набирает около 52% за 2–3 минуты, тогда как старшая версия достигает приблизительно 57%, но на выполнение такой же задачи тратит значительно больше времени — до 16 минут. Разрыв в качествах ещё более заметен на Terminal-Bench 2.0 — 58,4% у Spark против 77,3% у флагмана. При этом Spark превосходит прежнюю облегчённую модель GPT-5.1-Codex-mini, которая показала лишь 46,1% на том же тестировании.
Новую модель OpenAI уже предоставила подписчикам ChatGPT Pro в режиме research preview, доступ к ней возможен через приложение Codex, командную строку (CLI) и расширение для редактора VS Code. Контекстное окно Spark достигает 128 тысяч токенов, однако пока она поддерживает только текстовый формат, без возможности обработки изображений. Кроме того, API Codex-Spark открыт для ограниченного круга партнёров.
Партнёр Cerebras подчеркнул, что запуск модели открывает перспективы для разработки новых взаимодействий с ИИ-моделями. Если OpenAI удастся масштабировать эту технологическую инфраструктуру, высокая скорость инференса может существенно усилить конкурентные преимущества компании, расширяя возможности применения искусственного интеллекта не только в области кодинга, но и в ряде других задач.
