• Спорт
  • Политика
  • Общество
  • Технологии
  • Шоу-бизнес
  • Авто
Чтение: Рассуждающая модель от китайской MiniMax потребляет меньше ресурсов, чем DeepSeek
Поделиться
Уведомление Показать больше
Font ResizerAa
Font ResizerAa
  • Спорт
  • Политика
  • Общество
  • Технологии
  • Шоу-бизнес
  • Авто
Search
  • Спорт
  • Политика
  • Общество
  • Технологии
  • Шоу-бизнес
  • Авто
У вас есть существующая учетная запись? Войти
Подписывайтесь на нас
> Технологии > Рассуждающая модель от китайской MiniMax потребляет меньше ресурсов, чем DeepSeek
Технологии

Рассуждающая модель от китайской MiniMax потребляет меньше ресурсов, чем DeepSeek

18.06.2025
2 мин. чтение

Рассуждающая модель от китайской MiniMax потребляет меньше ресурсов, чем DeepSeek

Шанхайский стартап MiniMax представил новую языковую модель с пошаговыми рассуждениями — M1. Разработчики заявляют, что она потребляет вдвое меньше вычислительных ресурсов по сравнению с популярной DeepSeek-R1, сохраняя при этом сопоставимую точность.

Компания анонсировала целую неделю релизов. Вчера была представлена рассуждающая модель M1, а сегодня — обновленный видеогенератор Hailuo 02.

По данным MiniMax, модель M1 расходует менее половины вычислительной мощности DeepSeek-R1 при работе с задачами длиной до 64 тысяч токенов — примерно столько же, сколько 64 тыс. слов. В компании подчёркивают: «Существенное снижение вычислительных затрат делает M1 значительно более эффективной как для генерации текста, так и для обучения крупных моделей».

Day 1/5 of #MiniMaxWeek: We’re open-sourcing MiniMax-M1, our latest LLM — setting new standards in long-context reasoning.

— World’s longest context window: 1M-token input, 80k-token output
— State-of-the-art agentic use among open-source models
— RL at unmatched efficiency:… pic.twitter.com/bGfDlZA54n
— MiniMax (official) (@MiniMax__AI) June 16, 2025
Судя по документации, MiniMax воспринимает как основного конкурента DeepSeek: он упоминается чаще других. Опубликованные результаты бенчмарков показывают, что производительность M1 сравнима с последними моделями от Google, OpenAI и Anthropic, особенно в задачах по математике и программированию.

Модель основана на MiniMax-Text — 01 с 456 млрд параметров и использует гибридную архитектуру Mixture of Experts, что позволяет экономить ресурсы. Тот же подход применяет и DeepSeek. Технология Lightning Attention дополнительно ускоряет обучение, снижает требования к памяти и увеличивает допустимую длину текста.

Преимущество M1 — расширенное контекстное окно: до 1 млн входных токенов и до 80 тыс. выходных. Это делает модель подходящей для задач, связанных с обработкой больших объемов информации: от корпоративной документации до аналитических отчетов.

Day 2/5 of #MiniMaxWeek: Introducing Hailuo 02, World-Class Quality, Record-Breaking Cost Efficiency

ПОМЕЧЕНО: DeepSeek, MiniMax, Model, китайской, меньше, потребляет, Рассуждающая, ресурсов
Lamaxima 18.06.2025
Оставить комментарий Оставить комментарий

Добавить комментарий Отменить ответ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

ЛУЧШИЕ НОВОСТИ

СВЕЖИЕ НОВОСТИ

URA.RU: остановлена работа всего агентства
Что стоит сделать пенсионерам с 1953 по 1966 год рождения
Великобритания опровергла заявления Украины об удвоенных поставках танков
Корейские снаряды для «Вагнера» пугают японцев
Стало известно, какие квартиры обходят стороной «домушники»
РБК: Международные эксперты назвали особенности теракта в «Крокус Сити Холле»
Оказалось, эритроциты могут защитить сердце во время приступа: есть способ им помочь
Климатические аномалии помогли варварам завоевать римскую Британию
В фильме «Д’Артаньян и три мушкетера» найден незамеченный киноляп

Читайте также:

Старые смартфоны превратили в подводные центры обработки данных

26.06.2025

Телескоп в Антарктиде зафиксировал первый свет Вселенной с рекордной точностью

26.06.2025

Орангутаны тоже спят сиесту: днем приматы компенсируют ночной недосып

26.06.2025

Искусственный интеллект науился писать код для компьютерных чипов

26.06.2025
Подписывайтесь на нас
Welcome Back!

Sign in to your account

Забыли пароль?