Галлюцинации недели: GPT-5.3-Codex-Spark, Sonnet 4.6 и MoE из Китая Обложка: Skyread

Галлюцинации недели: GPT-5.3-Codex-Spark, Sonnet 4.6 и MoE из Китая

Новости
Главное:

  • OpenAI вместе с Cerebras выпустили модель GPT-5.3-Codex-Spark с высокой скоростью обработки токенов и контекстом до 128K.
  • Anthropic представили Sonnet 4.6 с улучшенной стабильностью и производительностью в задачах офисной работы и анализа, а также увеличенным контекстом в миллионе токенов.
  • Китайские компании развивают масштабные модели MoE (Mixture of Experts), позволяющие сохранять эффективность при меньшей нагрузке на GPU, а Unsloth представил ускоренные ядра для их обучения.

В последние дни в области искусственного интеллекта произошло сразу несколько значимых событий, связанных с релизами крупных языковых моделей и развитием соответствующих технологий. Так, OpenAI в партнерстве с Cerebras представили GPT-5.3-Codex-Spark, которая демонстрирует впечатляющую скорость генерации более 1000 токенов в секунду. Несмотря на уменьшенный контекст (128 тысяч токенов против 400 тысяч в обычном Codex), новый механизм сжатия информации позволяет эффективно компенсировать это ограничение. Ожидается, что дальнейшие версии модели с мощностями Cerebras смогут выдавать около 200-300 токенов в секунду, что потенциально сделает конкуренцию с Anthropic менее комфортной. Пользовательские тесты подтверждают высокую скорость работы, однако для полноценного доступа к модели требуется подписка Pro стоимостью 200 долларов.

В ответ Anthropic на прошлой неделе анонсировали Sonnet 4.6, которая близка по производительности к Opus 4.6 от OpenAI, а в ряде профессиональных задач, связанных с офисной работой и финансовым анализом, даже превосходит конкурента. Модель получила улучшенное управление интерфейсами и реже испытывает сбои в продолжительных сессиях, а её Agentic coding достигло 79.6%. В бета-версии Sonnet поддерживает контекст размером свыше миллиона токенов, что открывает большие возможности для сложных проектов. Следующая неделя обещает появление обзорных отзывов от пользователей.

В то время как западные игроки соревнуются в функциональности и скорости, Китай демонстрирует собственные достижения в создании масштабных архитектур Mixture of Experts (MoE). Например, Alibaba выпустила Qwen3.5 с 397 миллиардами параметров, а Z-ai представила GLM-5 с 744 миллиардами параметров. Преимущество таких моделей в том, что при инференсе задействуется лишь небольшая часть сети, что снижает нагрузку на GPU и обеспечивает конкурентоспособную производительность против западных аналогов вроде Opus. Параллельно компания Unsloth анонсировала кастомные ядра Triton для обучения MoE-моделей, ускоряющие процесс в 12 раз и снижая память VRAM на 35%, что делает fine-tuning таких моделей более доступным даже на одной видеокарте RTX 3090.

Также стоит отметить несколько других новаций: Meta выпустила систему Manus Agents, вдохновленную разработками OpenAI, а ByteDance улучшила технологию text-to-video в Seedance 2.0, которая способна создавать реалистичное видео, порождая дебаты по этическим вопросам. Китайский Qwen-Image-2.0 сократил размер модели при сохранении качества генерации изображений с разрешением до 2K, демонстрируя позитивную динамику развития генеративных технологий.

Нынешний этап развития ИИ показывает стремление компаний к балансированию между производительностью, масштабируемостью и стоимости решений. Пользователям рекомендовано воспользоваться текущими акциями — например, бесплатным доступом к Codex у OpenAI — чтобы самостоятельно оценить способности современных моделей и сравнить их с аналогами Anthropic. В ближайшее время ожидается дальнейшее усиление конкуренции и появление новых интеграций, что будет определять будущее индустрии искусственного интеллекта.

Tagged