DeepSeek-V3.2 приблизилась к GPT-5 и стала лидером олимпиад Обложка: Skyread

DeepSeek-V3.2 приблизилась к GPT-5 и стала лидером олимпиад

Новости
Главное:

  • DeepSeek выпустила новые открытые модели V3.2 и V3.2-Speciale, достигшие уровня GPT-5 по качеству мышления.
  • Модель Speciale стала первой с открытыми весами, показавшей уровень золотой медали на международных олимпиадах по математике, информатике и программированию.
  • Успех обеспечен за счёт Sparse Attention, агрессивного пост-обучения с использованием RL и большого объёма интерактивных данных для агентов.

Компания DeepSeek представила обновлённые версии своих открытых моделей искусственного интеллекта — V3.2 и V3.2-Speciale. Обычная версия модели демонстрирует уровень мышления, сопоставимый с GPT-5, и при этом доступна бесплатно через веб-интерфейс и мобильные приложения. Кроме того, стоимость использования API снижена в 24 раза по сравнению с аналогами.

Особый интерес вызывает версия Speciale, которая стала первой моделью с открытыми весами, способной достигать золотых результатов на сложных олимпиадах: международных и китайских по математике, информатике, а также в финале чемпионата мира по программированию. Это свидетельствует о значительном прогрессе в области открытых ИИ-систем.

В техническом отчёте DeepSeek выделяют три ключевых компонента успеха новых моделей. Во-первых, внедрён механизм Sparse Attention, позволяющий обрабатывать только 2048 наиболее релевантных из 128 тысяч токенов контекста вместо полного просмотра всех. Это снижает вычислительную сложность с квадратичной до практически линейной и существенно сокращает стоимость вывода при работе с длинными контекстами.

Во-вторых, применяется агрессивное пост-обучение с использованием reinforcement learning (RL). Интересно, что к RL выделяется более 10% бюджета от предобучения модели. Сначала обучаются специализированные модели для задач математики, программирования и логики, а затем их знания аккумулируются и дистиллируются в единую модель, которая проходит финальный этап RL. Авторы подробно описали методы стабилизации такого масштабного обучения, что может быть полезно исследователям ИИ.

В-третьих, для формирования обучающего контента используется обширный набор из 1800 интерактивных сред и 85 тысяч задач, включающий реальные рабочие платформы и автоматически сгенерированные симуляции. Модель V3.2 сохраняет контекст «мыслей» между вызовами инструментов, что позволяет более эффективно решать задачи с множественными шагами без излишних затрат на повторную обработку.

При этом разработчики признают текущие ограничения: из-за меньшего объёма предварительного обучения новые модели обладают меньшими базовыми знаниями и требуют большего контекста для достижения ответа уровня других продвинутых систем, таких как Gemini 3 Pro. В будущих выпусках, включая ожидаемую версию V4, планируется усилить предварительное обучение для увеличения их эффективности.

Разработка DeepSeek демонстрирует значительный прогресс в создании мощных открытых моделей ИИ с высоким качеством интеллектуальных способностей и экономичной архитектурой, что может существенно расширить возможности исследования и коммерческого внедрения искусственного интеллекта.

Tagged