MiniMax выпустила MiniMax M2 — компактную модель MoE, оптимизированную для кодирования и агентских рабочих процессов. Она работает примерно в 8 раз дешевле Claude Sonnet и примерно в 2 раза быстрее.
Что такое MiniMax M2?
MiniMax M2 — это компактная модель MoE (Mixture of Experts), которая оптимизирована для кодирования и агентских рабочих процессов. Веса модели опубликованы на Hugging Face под лицензией MIT. Модель предназначена для использования инструментов от начала до конца, редактирования нескольких файлов и планирования на длительный срок.
Основные характеристики:
* Общее количество параметров: 229 миллиардов.
* Активные параметры на токен: около 10 миллиардов.
* Дизайн: Sparse Mixture of Experts, ориентированный на кодирование и агентские рабочие процессы.
* Формат мышления: перемежающееся мышление с сегментами `
Бенчмарки
Команда MiniMax сообщает о наборе оценок для агентов и кода, которые ближе к рабочим процессам разработчиков, чем статические QA.
* Terminal Bench: 46,3.
* Multi SWE Bench: 36,2.
* BrowseComp: 44,0.
* SWE Bench Verified: 69,4 с детальным каркасом, OpenHands с контекстом 128k и 100 шагами.
Сравнение M1 и M2
| Аспект | MiniMax M1 | MiniMax M2 |
| — | — | — |
| Общие параметры | 456 миллиардов | 229 миллиардов (согласно метаданным модели, в тексте модели указано 230 миллиардов) |
| Активные параметры на токен | 45,9 миллиарда | 10 миллиардов |
| Основной дизайн | Гибридная модель MoE с Lightning Attention | Разреженная модель MoE, ориентированная на кодирование и агентские рабочие процессы |
| Формат мышления | Варианты бюджета мышления 40k и 80k в RL-обучении, протокол с тегом think не требуется | Перемежающееся мышление с сегментами `
| Бенчмарки | AIME, LiveCodeBench, SWE-bench Verified, TAU-bench, long context MRCR, MMLU-Pro | Terminal-Bench, Multi SWE-Bench, SWE-bench Verified, BrowseComp, GAIA text only, Artificial Analysis intelligence suite |
| Температура по умолчанию | 1,0, top p 0,95 | 1,0, top p 0,95, top k 40 (на странице запуска указано top k 20) |
| Рекомендации по обслуживанию | vLLM рекомендуется, путь Transformers также задокументирован | vLLM и SGLang рекомендуются, предоставляется руководство по вызову инструментов |
| Основной фокус | Длительные контекстные рассуждения, эффективное масштабирование вычислений во время тестирования, обучение с подкреплением CISPO | Агентские и кодовые рабочие процессы в оболочке, браузере, поиске и кодовых модулях |
Ключевые выводы
* M2 поставляется с открытыми весами на Hugging Face под лицензией MIT, с safetensors в F32, BF16 и FP8 F8_E4M3.
* Модель представляет собой компактную MoE с 229 миллиардами общих параметров и примерно 10 миллиардами активных на токен, что снижает использование памяти и стабилизирует хвостовую задержку в циклах планирования, действий и проверки.
* Выходные данные модели содержат внутренние рассуждения в сегментах `
* Отчётные результаты охватывают Terminal-Bench, (Multi-)SWE-Bench, BrowseComp и другие, с каркасными заметками для обеспечения воспроизводимости, а запуск в день 0 задокументирован для SGLang и vLLM с конкретными руководствами по развёртыванию.
Примечания редактора
MiniMax M2 выпускается с открытыми весами под лицензией MIT, представляет собой смесь экспертных решений с 229 миллиардами общих параметров и примерно 10 миллиардами активных на токен. Она ориентирована на агентские циклы и задачи кодирования с более низкой памятью и стабильной задержкой. Модель поставляется на Hugging Face в safetensors с форматами FP32, BF16 и FP8 и предоставляет примечания по развёртыванию плюс шаблон чата. API документирует совместимые с Anthropic конечные точки и перечисляет цены с ограниченным бесплатным окном для оценки. Рецепты vLLM и SGLang доступны для локального обслуживания и бенчмаркинга. В целом, MiniMax M2 — это очень солидный открытый релиз.
1. Какие преимущества предлагает MiniMax M2 по сравнению с другими моделями на рынке?
MiniMax M2 предлагает значительные преимущества по сравнению с другими моделями на рынке. Она работает примерно в 8 раз дешевле Claude Sonnet и примерно в 2 раза быстрее. Модель также оптимизирована для кодирования и агентских рабочих процессов, что делает её более эффективной для этих задач.
2. Какие основные характеристики MiniMax M2 делают её подходящей для кодирования и агентских рабочих процессов?
Основные характеристики MiniMax M2 включают общее количество параметров в 229 миллиардов, активные параметры на токен около 10 миллиардов, дизайн Sparse Mixture of Experts, ориентированный на кодирование и агентские рабочие процессы, и формат мышления с перемежающимся мышлением и сегментами `
3. Какие бенчмарки используются для оценки производительности MiniMax M2?
Для оценки производительности MiniMax M2 используются следующие бенчмарки: Terminal Bench (46,3), Multi SWE Bench (36,2), BrowseComp (44,0) и SWE Bench Verified (69,4 с детальным каркасом, OpenHands с контекстом 128k и 100 шагами).
4. Какие рекомендации даются для обслуживания MiniMax M2?
Для обслуживания MiniMax M2 рекомендуется использовать vLLM и SGLang. Предоставляется руководство по вызову инструментов.
5. Какие ключевые выводы можно сделать о MiniMax M2 на основе представленного текста?
Ключевые выводы о MiniMax M2 включают то, что модель поставляется с открытыми весами на Hugging Face под лицензией MIT, представляет собой компактную MoE с 229 миллиардами общих параметров и примерно 10 миллиардами активных на токен, ориентирована на агентские циклы и задачи кодирования с более низкой памятью и стабильной задержкой. Выходные данные модели содержат внутренние рассуждения в сегментах `