- MiniMax-M2 — новая модель от китайской команды MiniMaxAI с 10 миллиардами активных параметров, достигшая уровня лидеров в области open-source моделей для программирования.
- MiniMax-M2 превосходит по ряду задач такие известные модели, как Claude 4 и Gemini 2.5 Pro, демонстрируя лучшие показатели в тестах на программирование и агентность.
- Модель отличается высокой эффективностью благодаря оптимальной архитектуре, что обеспечивает низкую задержку и высокую производительность при сравнительно малом размере.
Китайская команда MiniMaxAI представила MiniMax-M2 — компактную и высокоэффективную модель машинного обучения, ориентированную на задачи программирования и агентного взаимодействия. Несмотря на относительную небольшую размерность — всего 10 миллиардов активных параметров — MiniMax-M2 показывает результаты, сопоставимые и даже превосходящие ведущих представителей отрасли, таких как Claude 4, Gemini 2.5 Pro и другие.
MiniMax-M2 выделяется среди аналогичных open-source систем благодаря высокой интеллектуальной производительности и способности эффективно выполнять сложные задачи. В частности, по метрике Artificial Analysis Intelligence она демонстрирует лидерство, опережая модели DeepSeek и Kimi. В тестах SWE-Bench, Terminal-Bench и ArtifactsBench, которые направлены на проверку умений решать программные задачи, MiniMax-M2 показывает лучшие результаты, например, набирая 69.4 балла в SWE-Bench против 63.8 у Gemini 2.5 Pro и 46.3 в Terminal-Bench, где Claude 4 достигает лишь 36.4.
Особое внимание заслуживает также агентная функциональность MiniMax-M2. В BrowseComp-тестах модель демонстрирует способность обнаруживать скрытые источники информации, формулировать планы и диагностировать ошибки, значительно превосходя показатели Claude 4.5 (44 против 19.6 баллов). Кроме того, в тесте GAIA (текстового анализа) MiniMax-M2 достигает 75.7 баллов, тогда как Gemini показывает 60.2.
Уникальность MiniMax-M2 заключается не только в высокой производительности, но и в её реализации с открытым исходным кодом, что делает модель привлекательной для разработчиков и исследователей, заинтересованных в интеграции таких решений в свои проекты. Благодаря относительно малому количеству активных параметров достигается низкая задержка и высокая пропускная способность, что снижает издержки на эксплуатацию модели в продакшене.
В то время как GPT-5 остаётся эталоном в своей категории, MiniMax-M2 сокращает разрыв, предоставляя сообществу доступ к эффективной, продвинутой и открытой модели, ориентированной в первую очередь на задачи программирования и интеллекта агентов.
Подробности и исходные файлы модели доступны на платформе Hugging Face по адресу: https://huggingface.co/MiniMaxAI/MiniMax-M2.
