- Ant Group (Alibaba) представила две масштабные open-source модели ИИ: Ling-1T и Ring-1T.
- Ring-1T демонстрирует лучшие результаты, чем DeepSeek-V3.1 и Qwen3-235B на ряде известных бенчмарков.
- Модели доступны для загрузки и тестирования на платформе Hugging Face и ZenMux.ai, имеют архитектуру Mixture of Experts и достигают контекста до 128 000 токенов.
Компания Ant Group, входящая в экосистему Alibaba, анонсировала выпуск двух мощных открытых моделей искусственного интеллекта — Ling-1T и Ring-1T. Эти разработки стали одними из крупнейших открытых моделей на сегодняшний день, вызвав интерес благодаря своим техническим характеристикам и производительности.
Ling-1T — языковая модель с параметрами объемом в один триллион, построенная на архитектуре Mixture of Experts, что позволяет одновременно задействовать около 50 миллиардов весов. Несмотря на огромный размер, вычислительные затраты сопоставимы с моделями плотного типа с 50 миллиардами параметров, при этом достигается заметно более высокий уровень точности. На базе Ling-1T создана версия Ring-1T, ориентированная на рассуждения и логическое решение задач сложного уровня, таких как AIME, ARC-AGI и Codeforces.
Одной из особенностей моделей является использование инновационных методик: эволюционной цепочки рассуждений Evo-CoT, уникального плана обучения WSM без стандартного затухания, а также оптимизаций внимания и нормализации. Размер контекстного окна достигает 32 000 токенов с возможным расширением до 128 000, что значительно превышает параметры многих современных моделей. В версии Ring-1T активировано обучение с подкреплением (RLHF / RLVR) для повышения качества рассуждений.
По внутренним данным Ant Group, Ring-1T показывает впечатляющие результаты, достигая 92,6 % на тестах AIME 2025, успешно решая задачи из конкурса IMO 2025 и превосходя по ряду показателей такие модели, как DeepSeek-V3.1-Terminus и Qwen3-235B-Thinking на тестах ARC-AGI-1, HMMT и LiveCodeBench. В то же время независимые проверки ещё впереди, поэтому полный объективный анализ эффективности моделей будет доступен позднее.
Для локального использования Ant Group рекомендует платформы vLLM и SGLang, предоставляя примеры конфигураций для распределения вычислений. Модель в версии с FP8 требует порядка двух терабайт памяти, но благодаря экспериментам с квантованием до трёх бит запуск становится возможен и на менее мощных системах.
Открытые весы моделей выложены под лицензией MIT на платформе Hugging Face, что существенно расширяет доступ к ним для исследователей и разработчиков по всему миру. Также доступна онлайн-платформа ZenMux.ai для удобного тестирования возможностей Ling-1T и Ring-1T.
Запуск таких масштабных открытых моделей знаменует новый этап в развитии искусственного интеллекта с открытым исходным кодом, демонстрируя рост возможностей создания ИИ с высоким уровнем рассуждений и сложных вычислительных задач.