
Шанхайский стартап MiniMax представил новую языковую модель с пошаговыми рассуждениями — M1. Разработчики заявляют, что она потребляет вдвое меньше вычислительных ресурсов по сравнению с популярной DeepSeek-R1, сохраняя при этом сопоставимую точность.
Компания анонсировала целую неделю релизов. Вчера была представлена рассуждающая модель M1, а сегодня — обновленный видеогенератор Hailuo 02.
По данным MiniMax, модель M1 расходует менее половины вычислительной мощности DeepSeek-R1 при работе с задачами длиной до 64 тысяч токенов — примерно столько же, сколько 64 тыс. слов. В компании подчёркивают: «Существенное снижение вычислительных затрат делает M1 значительно более эффективной как для генерации текста, так и для обучения крупных моделей».
Day 1/5 of #MiniMaxWeek: We’re open-sourcing MiniMax-M1, our latest LLM — setting new standards in long-context reasoning.
— World’s longest context window: 1M-token input, 80k-token output
— State-of-the-art agentic use among open-source models
— RL at unmatched efficiency:… pic.twitter.com/bGfDlZA54n
— MiniMax (official) (@MiniMax__AI) June 16, 2025
Судя по документации, MiniMax воспринимает как основного конкурента DeepSeek: он упоминается чаще других. Опубликованные результаты бенчмарков показывают, что производительность M1 сравнима с последними моделями от Google, OpenAI и Anthropic, особенно в задачах по математике и программированию.
Модель основана на MiniMax-Text 01 с 456 млрд параметров и использует гибридную архитектуру Mixture of Experts, что позволяет экономить ресурсы. Тот же подход применяет и DeepSeek. Технология Lightning Attention дополнительно ускоряет обучение, снижает требования к памяти и увеличивает допустимую длину текста.
Преимущество M1 — расширенное контекстное окно: до 1 млн входных токенов и до 80 тыс. выходных. Это делает модель подходящей для задач, связанных с обработкой больших объемов информации: от корпоративной документации до аналитических отчетов.
Day 2/5 of #MiniMaxWeek: Introducing Hailuo 02, World-Class Quality, Record-Breaking Cost Efficiency