- DeepSeek обновил своё приложение до версии 1.7.4 с увеличением контекстного окна свыше миллиона токенов и обновлённой базой знаний до мая 2025 года.
- При взаимодействии чатбот называет себя «предрелизной версией V4» — последней перед официальным выходом новой модели.
- Аналитики отмечают, что обновлённая модель сравнима с ведущими конкурентами в сложных задачах и обещает снижение стоимости тренировки ИИ, что может стимулировать новую волну инвестиций.
В последнее обновление DeepSeek до версии 1.7.4 внесло серьёзные улучшения, заметно расширив возможности модели. Одним из главных изменений стало увеличение контекстного окна с 128 тысяч до более чем миллиона токенов, что позволяет значительно повысить качество и глубину анализа при работе с большими объёмами информации. Кроме того, база знаний модели актуализирована вплоть до мая 2025 года, что обеспечивает современный охват данных.
Примечательно, что сам чатбот при опросах о своей версии несколько раз называет себя «финальной эволюционной формой серии V3» и «предрелизной версией V4», что свидетельствует о готовности к скорому полноценному запуску нового поколения модели. В этом контексте эксперты считают, что выход DeepSeek V4 не повторит резкие рыночные потрясения, подобные тем, что вызвал релиз DeepSeek-R1 в прошлом году.
Согласно аналитическому обзору Nomura Securities от 10 февраля, новая модель уже демонстрирует уровень, сопоставимый с ведущими конкурентами, такими как Gemini 3 Pro и K2.5, в решении сложных задач. Внутренние тесты показывают превосходство DeepSeek V4 над текущими версиями Claude и GPT в области программирования. Такой прогресс стал возможен благодаря двум ключевым технологиям: mHC (Manifold-Constrained Hyper-Connections), которые позволяют масштабировать модель без дополнительной нагрузки на память, и Engram — модулю условной памяти, который обеспечивает работу с контекстом длиной более миллиона токенов без потери качества.
Эксперты также отмечают, что главной выгодой новой версии станет дальнейшее снижение стоимости как обучения, так и инференса моделей, что критично для ускорения коммерческого внедрения искусственного интеллекта. Это, по мнению аналитиков, может стимулировать возобновление инвестиций в ИИ-инфраструктуру, особенно в Китае. Однако на фоне усиления конкуренции и появления новых открытых моделей позиции DeepSeek на рынке open-source немного ослабли: если в конце 2024 года две модели компании обеспечивали свыше половины всех обработанных токенов на платформе OpenRouter, то к концу 2025 года их доля значительно снизилась.
Важно отметить, что обновление DeepSeek прошло в условиях активного роста конкуренции внутри китайского ИИ-сегмента. Так, буквально несколько часов назад компания Zhipu представила модель GLM-5 с 744 миллиардами параметров, использующую инновационную технологию разреженного внимания от DeepSeek (DeepSeek Sparse Attention). Параллельно Alibaba и ByteDance готовят собственные новинки — Qwen 3.5 и Doubao 2.0 соответственно. Все компании стремятся представить свои улучшения до начала Лунного Нового года, который наступит 17 февраля, и, как ожидается, именно на этот срок запланирован полный запуск DeepSeek V4.
