Alibaba представляет предварительный просмотр Qwen3-Max: модель Qwen с триллионом параметров, сверхбыстрой скоростью и качеством

Команда Qwen от Alibaba представила Qwen3-Max-Preview (Instruct) — новую флагманскую большую языковую модель с более чем триллионом параметров, крупнейшую на сегодняшний день. Она доступна через Qwen Chat, Alibaba Cloud API, OpenRouter и по умолчанию в инструменте Hugging Face AnyCoder.

Как модель вписывается в сегодняшний ландшафт больших языковых моделей?

Этот рубеж достигнут в то время, когда индустрия стремится к созданию более мелких и эффективных моделей. Решение Alibaba двигаться в сторону увеличения масштаба — это осознанный стратегический выбор, подчёркивающий как её технические возможности, так и приверженность исследованиям с триллионом параметров.

Насколько велика модель Qwen3-Max и каковы её ограничения по контексту?

  • Параметры: более триллиона.

  • Окно контекста: до 262 144 токенов (258 048 на вход, 32 768 на выход).

  • Функция эффективности: включает кэширование контекста для ускорения многоэтапных сеансов.

Как Qwen3-Max работает по сравнению с другими моделями?

Бенчмарки показывают, что модель превосходит Qwen3-235B-A22B-2507 и на равных конкурирует с Claude Opus 4, Kimi K2 и Deepseek-V3.1 в тестах SuperGPQA, AIME25, LiveCodeBench v6, Arena-Hard v2 и LiveBench.

Какова структура ценообразования для использования модели?

Alibaba Cloud применяет многоуровневое ценообразование на основе токенов:

  • 0–32 тыс. токенов: $0,861/миллион на вход, $3,441/миллион на выход.

  • 32–128 тыс. токенов: $1,434/миллион на вход, $5,735/миллион на выход.

  • 128–252 тыс. токенов: $2,151/миллион на вход, $8,602/миллион на выход.

Эта модель экономически выгодна для небольших задач, но значительно возрастает в цене при работе с длинными контекстами.

Как закрытый исходный код влияет на внедрение модели?

В отличие от более ранних выпусков Qwen, эта модель не является открытой. Доступ ограничен API и партнёрскими платформами. Этот выбор подчёркивает ориентацию Alibaba на коммерциализацию, но может замедлить более широкое внедрение в исследовательских и открытых сообществах.

Ключевые выводы

  • Первая модель Qwen с триллионом параметров: Qwen3-Max превосходит 1 триллион параметров, являясь крупнейшей и наиболее продвинутой большой языковой моделью Alibaba на сегодняшний день.

  • Обработка сверхдлинного контекста: поддерживает 262 тыс. токенов с кэшированием, что позволяет обрабатывать расширенные документы и сеансы сверх большинства коммерческих моделей.

  • Конкурентные результаты бенчмарков: превосходит Qwen3-235B и конкурирует с Claude Opus 4, Kimi K2 и Deepseek-V3.1 в задачах по рассуждению, кодированию и общим задачам.

  • Появление рассуждений, несмотря на дизайн: хотя модель и не позиционируется как модель для рассуждений, ранние результаты показывают наличие структурированных рассуждений при выполнении сложных задач.

  • Закрытый исходный код, многоуровневая модель ценообразования: доступна через API с ценообразованием на основе токенов; экономична для небольших задач, но дорогостояща при более высоком использовании контекста, что ограничивает доступность.

Резюме

Qwen3-Max-Preview устанавливает новый эталон в коммерческих больших языковых моделях. Её конструкция с триллионом параметров, длина контекста в 262 тыс. токенов и высокие результаты бенчмарков подчёркивают техническую глубину Alibaba. Однако закрытый исходный код и многоуровневое ценообразование создают вопросы о более широкой доступности модели.

Ознакомьтесь с Qwen Chat и Alibaba Cloud API. Не стесняйтесь заглянуть на нашу страницу GitHub, чтобы найти учебные пособия, коды и ноутбуки. Также подписывайтесь на нас в Twitter и присоединяйтесь к нашему сообществу в SubReddit (более 100 тыс. участников по машинному обучению) и подписывайтесь на нашу рассылку.

1. Каковы основные преимущества модели Qwen3-Max по сравнению с другими большими языковыми моделями?

Ответ: Qwen3-Max имеет более триллион параметров, что делает её крупнейшей на сегодняшний день. Она превосходит Qwen3-235B-A22B-2507 и на равных конкурирует с Claude Opus 4, Kimi K2 и Deepseek-V3.1 в тестах SuperGPQA, AIME25, LiveCodeBench v6, Arena-Hard v2 и LiveBench. Кроме того, модель поддерживает обработку сверхдлинного контекста до 262 144 токенов.

2. Какие ограничения существуют у модели Qwen3-Max в контексте обработки текста?

Ответ: Окно контекста Qwen3-Max составляет до 262 144 токенов (258 048 на вход, 32 768 на выход). Это позволяет обрабатывать расширенные документы и сеансы, но может быть ограничено для задач, требующих более глубокого анализа или обработки больших объёмов данных.

3. Как влияет закрытый исходный код модели Qwen3-Max на её внедрение и использование?

Ответ: Закрытый исходный код ограничивает более широкое внедрение модели в исследовательских и открытых сообществах. Доступ к модели ограничен API и партнёрскими платформами, что подчёркивает ориентацию Alibaba на коммерциализацию.

4. Какие факторы делают модель Qwen3-Max экономически выгодной для некоторых задач?

Ответ: Модель Qwen3-Max экономически выгодна для небольших задач из-за многоуровневого ценообразования на основе токенов. Однако при работе с длинными контекстами цена значительно возрастает, что ограничивает её доступность для некоторых пользователей.

5. Какие возможности предоставляет Qwen3-Max для разработчиков и исследователей?

Ответ: Qwen3-Max доступна через Qwen Chat, Alibaba Cloud API, OpenRouter и по умолчанию в инструменте Hugging Face AnyCoder. Разработчики и исследователи могут использовать модель для различных задач, включая обработку естественного языка, генерацию текста и другие приложения.

Источник