MiniMax выпустила обновлённую версию M2 — MiniMax M2.1. Эта версия основана на M2, быстрой и недорогой модели, предназначенной для агентов и кодирования.
Основные улучшения M2.1:
* повышение качества кода;
* более точное следование инструкциям;
* чёткость рассуждений;
* повышение производительности на нескольких языках программирования.
Ключевые возможности и результаты тестирования
MiniMax M2.1 разработана для использования в реальных условиях кодирования и в командах, работающих с ИИ. Она поддерживает всё: от быстрых «виб-билдов» до сложных рабочих процессов производственного уровня.
Производительность в области многоязычного кодирования
* Достигает 72,5% на SWE-Multilingual, превосходя Claude Sonnet 4.5 и Gemini 3 Pro на нескольких языках программирования.
Возможности разработки приложений и веб-разработки
* Набирает 88,6% на VIBE-Bench, превышая Claude Sonnet 4.5 и Gemini 3 Pro, с серьёзными улучшениями в разработке для Android, iOS и современных веб-приложений.
Совместимость с агентами и инструментами
* Обеспечивает стабильную работу с ведущими инструментами кодирования и фреймворками агентов, включая Claude Code, Droid (Factory AI), Cline, Kilo Code, Roo Code, BlackBox и другие.
Поддержка управления контекстом
* Работает надёжно с продвинутыми механизмами контекста, такими как Skill.md, Claude.md / agent.md / cursorrule и Slash Commands, что позволяет масштабировать рабочие процессы с агентами.
Автоматическое кэширование, нулевая конфигурация
* Встроенное кэширование работает «из коробки», чтобы снизить задержки, снизить затраты и обеспечить более плавную работу в целом.
Начало работы с MiniMax M2.1
Чтобы начать работу с MiniMax M2.1, вам понадобится ключ API с платформы MiniMax. Вы можете сгенерировать его в консоли пользователя MiniMax.
После получения храните ключ API в надёжном месте и не раскрывайте его в репозиториях кода или общедоступных средах.
MiniMax поддерживает форматы API Anthropic и OpenAI, что упрощает интеграцию моделей MiniMax в существующие рабочие процессы с минимальными изменениями конфигурации.
Отправка запросов к модели
MiniMax M2.1 возвращает структурированные выходные данные, которые отделяют внутренние рассуждения (мышление) от окончательного ответа (текст). Это позволяет вам наблюдать, как модель интерпретирует намерения и планирует свой ответ, прежде чем выдавать результат, ориентированный на пользователя.
Пример использования
«`python
import anthropic
client = anthropic.Anthropic()
message = client.messages.create(
model=»MiniMax-M2.1″,
max_tokens=1000,
system=»You are a helpful assistant.»,
messages=[
{
«role»: «user»,
«content»: [
{
«type»: «text»,
«text»: «Hi, how are you?»
}
]
}
]
)
for block in message.content:
if block.type == «thinking»:
print(f»Thinking:\n{block.thinking}\n»)
elif block.type == «text»:
print(f»Text:\n{block.text}\n»)
«`
Модельное мышление в действии
Давайте посмотрим, как работает интерлейвированное мышление MiniMax M2.1. Мы просим модель сравнить две организации на основе коэффициента P/E и настроений, используя два фиктивных инструмента для наглядного наблюдения за работой.
Этот пример демонстрирует, как M2.1 взаимодействует с внешними инструментами в контролируемой настройке, похожей на работу с агентами. Один инструмент имитирует получение биржевых метрик, а другой предоставляет анализ настроений, возвращая локально сгенерированные ответы.
Определение инструментов
«`python
import anthropic
import json
client = anthropic.Anthropic()
def getstockmetrics(ticker):
data = {
«NVDA»: {«price»: 130, «pe»: 75.2},
«AMD»: {«price»: 150, «pe»: 40.5}
}
return json.dumps(data.get(ticker, «Ticker not found»))
def getsentimentanalysis(company_name):
sentiments = {«NVIDIA»: 0.85, «AMD»: 0.42}
return f»Sentiment score for {companyname}: {sentiments.get(companyname, 0.0)}»
tools = [
{
«name»: «getstockmetrics»,
«description»: «Get price and P/E ratio.»,
«input_schema»: {
«type»: «object»,
«properties»: {«ticker»: {«type»: «string»}},
«required»: [«ticker»]
}
},
{
«name»: «getsentimentanalysis»,
«description»: «Get news sentiment score.»,
«input_schema»: {
«type»: «object»,
«properties»: {«company_name»: {«type»: «string»}},
«required»: [«company_name»]
}
}
]
«`
Сравнение с OpenAI GPT-5.2
Наконец, мы сравниваем MiniMax M2.1 с GPT-5.2, используя компактную многоязычную подсказку для следования инструкциям. Задача требует от модели идентификации терминов, связанных с кофе, из испанского текста, перевода только этих терминов на английский, удаления дубликатов и возврата результата в строго отформатированном нумерованном списке.
1. Какие ключевые улучшения были внесены в модель MiniMax M2.1 по сравнению с предыдущей версией M2?
Ответ:
В MiniMax M2.1 были внесены следующие ключевые улучшения: повышение качества кода, более точное следование инструкциям, чёткость рассуждений и повышение производительности на нескольких языках программирования.
2. Какие результаты тестирования демонстрируют эффективность MiniMax M2.1 в области многоязычного кодирования?
Ответ:
MiniMax M2.1 достигает 72,5% на SWE-Multilingual, превосходя Claude Sonnet 4.5 и Gemini 3 Pro на нескольких языках программирования.
3. Какие возможности предоставляет MiniMax M2.1 для разработчиков приложений и веб-разработки?
Ответ:
MiniMax M2.1 набирает 88,6% на VIBE-Bench, превышая Claude Sonnet 4.5 и Gemini 3 Pro, с серьёзными улучшениями в разработке для Android, iOS и современных веб-приложений.
4. Какие инструменты и фреймворки поддерживает MiniMax M2.1 для обеспечения совместимости?
Ответ:
MiniMax M2.1 обеспечивает стабильную работу с ведущими инструментами кодирования и фреймворками агентов, включая Claude Code, Droid (Factory AI), Cline, Kilo Code, Roo Code, BlackBox и другие.
5. Какие особенности MiniMax M2.1 позволяют упростить интеграцию модели в существующие рабочие процессы?
Ответ:
MiniMax поддерживает форматы API Anthropic и OpenAI, что упрощает интеграцию моделей MiniMax в существующие рабочие процессы с минимальными изменениями конфигурации. Кроме того, встроенное кэширование работает «из коробки», чтобы снизить задержки, снизить затраты и обеспечить более плавную работу в целом.