MiniMax выпускает версию M2.1: усовершенствованная версия M2 с поддержкой многоязычного кодирования, интеграцией API и улучшенными инструментами для структурированного кодирования

MiniMax выпустила обновлённую версию M2 — MiniMax M2.1. Эта версия основана на M2, быстрой и недорогой модели, предназначенной для агентов и кодирования.

Основные улучшения M2.1:
* повышение качества кода;
* более точное следование инструкциям;
* чёткость рассуждений;
* повышение производительности на нескольких языках программирования.

Ключевые возможности и результаты тестирования

MiniMax M2.1 разработана для использования в реальных условиях кодирования и в командах, работающих с ИИ. Она поддерживает всё: от быстрых «виб-билдов» до сложных рабочих процессов производственного уровня.

Производительность в области многоязычного кодирования
* Достигает 72,5% на SWE-Multilingual, превосходя Claude Sonnet 4.5 и Gemini 3 Pro на нескольких языках программирования.

Возможности разработки приложений и веб-разработки
* Набирает 88,6% на VIBE-Bench, превышая Claude Sonnet 4.5 и Gemini 3 Pro, с серьёзными улучшениями в разработке для Android, iOS и современных веб-приложений.

Совместимость с агентами и инструментами
* Обеспечивает стабильную работу с ведущими инструментами кодирования и фреймворками агентов, включая Claude Code, Droid (Factory AI), Cline, Kilo Code, Roo Code, BlackBox и другие.

Поддержка управления контекстом
* Работает надёжно с продвинутыми механизмами контекста, такими как Skill.md, Claude.md / agent.md / cursorrule и Slash Commands, что позволяет масштабировать рабочие процессы с агентами.

Автоматическое кэширование, нулевая конфигурация
* Встроенное кэширование работает «из коробки», чтобы снизить задержки, снизить затраты и обеспечить более плавную работу в целом.

Начало работы с MiniMax M2.1

Чтобы начать работу с MiniMax M2.1, вам понадобится ключ API с платформы MiniMax. Вы можете сгенерировать его в консоли пользователя MiniMax.

После получения храните ключ API в надёжном месте и не раскрывайте его в репозиториях кода или общедоступных средах.

MiniMax поддерживает форматы API Anthropic и OpenAI, что упрощает интеграцию моделей MiniMax в существующие рабочие процессы с минимальными изменениями конфигурации.

Отправка запросов к модели

MiniMax M2.1 возвращает структурированные выходные данные, которые отделяют внутренние рассуждения (мышление) от окончательного ответа (текст). Это позволяет вам наблюдать, как модель интерпретирует намерения и планирует свой ответ, прежде чем выдавать результат, ориентированный на пользователя.

Пример использования

«`python
import anthropic

client = anthropic.Anthropic()

message = client.messages.create(
model=»MiniMax-M2.1″,
max_tokens=1000,
system=»You are a helpful assistant.»,
messages=[
{
«role»: «user»,
«content»: [
{
«type»: «text»,
«text»: «Hi, how are you?»
}
]
}
]
)

for block in message.content:
if block.type == «thinking»:
print(f»Thinking:\n{block.thinking}\n»)
elif block.type == «text»:
print(f»Text:\n{block.text}\n»)
«`

Модельное мышление в действии

Давайте посмотрим, как работает интерлейвированное мышление MiniMax M2.1. Мы просим модель сравнить две организации на основе коэффициента P/E и настроений, используя два фиктивных инструмента для наглядного наблюдения за работой.

Этот пример демонстрирует, как M2.1 взаимодействует с внешними инструментами в контролируемой настройке, похожей на работу с агентами. Один инструмент имитирует получение биржевых метрик, а другой предоставляет анализ настроений, возвращая локально сгенерированные ответы.

Определение инструментов

«`python
import anthropic
import json

client = anthropic.Anthropic()

def getstockmetrics(ticker):
data = {
«NVDA»: {«price»: 130, «pe»: 75.2},
«AMD»: {«price»: 150, «pe»: 40.5}
}
return json.dumps(data.get(ticker, «Ticker not found»))

def getsentimentanalysis(company_name):
sentiments = {«NVIDIA»: 0.85, «AMD»: 0.42}
return f»Sentiment score for {companyname}: {sentiments.get(companyname, 0.0)}»

tools = [
{
«name»: «getstockmetrics»,
«description»: «Get price and P/E ratio.»,
«input_schema»: {
«type»: «object»,
«properties»: {«ticker»: {«type»: «string»}},
«required»: [«ticker»]
}
},
{
«name»: «getsentimentanalysis»,
«description»: «Get news sentiment score.»,
«input_schema»: {
«type»: «object»,
«properties»: {«company_name»: {«type»: «string»}},
«required»: [«company_name»]
}
}
]
«`

Сравнение с OpenAI GPT-5.2

Наконец, мы сравниваем MiniMax M2.1 с GPT-5.2, используя компактную многоязычную подсказку для следования инструкциям. Задача требует от модели идентификации терминов, связанных с кофе, из испанского текста, перевода только этих терминов на английский, удаления дубликатов и возврата результата в строго отформатированном нумерованном списке.

1. Какие ключевые улучшения были внесены в модель MiniMax M2.1 по сравнению с предыдущей версией M2?

Ответ:
В MiniMax M2.1 были внесены следующие ключевые улучшения: повышение качества кода, более точное следование инструкциям, чёткость рассуждений и повышение производительности на нескольких языках программирования.

2. Какие результаты тестирования демонстрируют эффективность MiniMax M2.1 в области многоязычного кодирования?

Ответ:
MiniMax M2.1 достигает 72,5% на SWE-Multilingual, превосходя Claude Sonnet 4.5 и Gemini 3 Pro на нескольких языках программирования.

3. Какие возможности предоставляет MiniMax M2.1 для разработчиков приложений и веб-разработки?

Ответ:
MiniMax M2.1 набирает 88,6% на VIBE-Bench, превышая Claude Sonnet 4.5 и Gemini 3 Pro, с серьёзными улучшениями в разработке для Android, iOS и современных веб-приложений.

4. Какие инструменты и фреймворки поддерживает MiniMax M2.1 для обеспечения совместимости?

Ответ:
MiniMax M2.1 обеспечивает стабильную работу с ведущими инструментами кодирования и фреймворками агентов, включая Claude Code, Droid (Factory AI), Cline, Kilo Code, Roo Code, BlackBox и другие.

5. Какие особенности MiniMax M2.1 позволяют упростить интеграцию модели в существующие рабочие процессы?

Ответ:
MiniMax поддерживает форматы API Anthropic и OpenAI, что упрощает интеграцию моделей MiniMax в существующие рабочие процессы с минимальными изменениями конфигурации. Кроме того, встроенное кэширование работает «из коробки», чтобы снизить задержки, снизить затраты и обеспечить более плавную работу в целом.

Источник