Команда Qwen от Alibaba представила Qwen3-Max-Preview (Instruct) — новую флагманскую большую языковую модель с более чем триллионом параметров, крупнейшую на сегодняшний день. Она доступна через Qwen Chat, Alibaba Cloud API, OpenRouter и по умолчанию в инструменте Hugging Face AnyCoder.
Как модель вписывается в сегодняшний ландшафт больших языковых моделей?
Этот рубеж достигнут в то время, когда индустрия стремится к созданию более мелких и эффективных моделей. Решение Alibaba двигаться в сторону увеличения масштаба — это осознанный стратегический выбор, подчёркивающий как её технические возможности, так и приверженность исследованиям с триллионом параметров.
Насколько велика модель Qwen3-Max и каковы её ограничения по контексту?
- Параметры: более триллиона.
- Окно контекста: до 262 144 токенов (258 048 на вход, 32 768 на выход).
- Функция эффективности: включает кэширование контекста для ускорения многоэтапных сеансов.
Как Qwen3-Max работает по сравнению с другими моделями?
Бенчмарки показывают, что модель превосходит Qwen3-235B-A22B-2507 и на равных конкурирует с Claude Opus 4, Kimi K2 и Deepseek-V3.1 в тестах SuperGPQA, AIME25, LiveCodeBench v6, Arena-Hard v2 и LiveBench.
Какова структура ценообразования для использования модели?
Alibaba Cloud применяет многоуровневое ценообразование на основе токенов:
- 0–32 тыс. токенов: $0,861/миллион на вход, $3,441/миллион на выход.
- 32–128 тыс. токенов: $1,434/миллион на вход, $5,735/миллион на выход.
- 128–252 тыс. токенов: $2,151/миллион на вход, $8,602/миллион на выход.
Эта модель экономически выгодна для небольших задач, но значительно возрастает в цене при работе с длинными контекстами.
Как закрытый исходный код влияет на внедрение модели?
В отличие от более ранних выпусков Qwen, эта модель не является открытой. Доступ ограничен API и партнёрскими платформами. Этот выбор подчёркивает ориентацию Alibaba на коммерциализацию, но может замедлить более широкое внедрение в исследовательских и открытых сообществах.
Ключевые выводы
- Первая модель Qwen с триллионом параметров: Qwen3-Max превосходит 1 триллион параметров, являясь крупнейшей и наиболее продвинутой большой языковой моделью Alibaba на сегодняшний день.
- Обработка сверхдлинного контекста: поддерживает 262 тыс. токенов с кэшированием, что позволяет обрабатывать расширенные документы и сеансы сверх большинства коммерческих моделей.
- Конкурентные результаты бенчмарков: превосходит Qwen3-235B и конкурирует с Claude Opus 4, Kimi K2 и Deepseek-V3.1 в задачах по рассуждению, кодированию и общим задачам.
- Появление рассуждений, несмотря на дизайн: хотя модель и не позиционируется как модель для рассуждений, ранние результаты показывают наличие структурированных рассуждений при выполнении сложных задач.
- Закрытый исходный код, многоуровневая модель ценообразования: доступна через API с ценообразованием на основе токенов; экономична для небольших задач, но дорогостояща при более высоком использовании контекста, что ограничивает доступность.
Резюме
Qwen3-Max-Preview устанавливает новый эталон в коммерческих больших языковых моделях. Её конструкция с триллионом параметров, длина контекста в 262 тыс. токенов и высокие результаты бенчмарков подчёркивают техническую глубину Alibaba. Однако закрытый исходный код и многоуровневое ценообразование создают вопросы о более широкой доступности модели.
Ознакомьтесь с Qwen Chat и Alibaba Cloud API. Не стесняйтесь заглянуть на нашу страницу GitHub, чтобы найти учебные пособия, коды и ноутбуки. Также подписывайтесь на нас в Twitter и присоединяйтесь к нашему сообществу в SubReddit (более 100 тыс. участников по машинному обучению) и подписывайтесь на нашу рассылку.
1. Каковы основные преимущества модели Qwen3-Max по сравнению с другими большими языковыми моделями?
Ответ: Qwen3-Max имеет более триллион параметров, что делает её крупнейшей на сегодняшний день. Она превосходит Qwen3-235B-A22B-2507 и на равных конкурирует с Claude Opus 4, Kimi K2 и Deepseek-V3.1 в тестах SuperGPQA, AIME25, LiveCodeBench v6, Arena-Hard v2 и LiveBench. Кроме того, модель поддерживает обработку сверхдлинного контекста до 262 144 токенов.
2. Какие ограничения существуют у модели Qwen3-Max в контексте обработки текста?
Ответ: Окно контекста Qwen3-Max составляет до 262 144 токенов (258 048 на вход, 32 768 на выход). Это позволяет обрабатывать расширенные документы и сеансы, но может быть ограничено для задач, требующих более глубокого анализа или обработки больших объёмов данных.
3. Как влияет закрытый исходный код модели Qwen3-Max на её внедрение и использование?
Ответ: Закрытый исходный код ограничивает более широкое внедрение модели в исследовательских и открытых сообществах. Доступ к модели ограничен API и партнёрскими платформами, что подчёркивает ориентацию Alibaba на коммерциализацию.
4. Какие факторы делают модель Qwen3-Max экономически выгодной для некоторых задач?
Ответ: Модель Qwen3-Max экономически выгодна для небольших задач из-за многоуровневого ценообразования на основе токенов. Однако при работе с длинными контекстами цена значительно возрастает, что ограничивает её доступность для некоторых пользователей.
5. Какие возможности предоставляет Qwen3-Max для разработчиков и исследователей?
Ответ: Qwen3-Max доступна через Qwen Chat, Alibaba Cloud API, OpenRouter и по умолчанию в инструменте Hugging Face AnyCoder. Разработчики и исследователи могут использовать модель для различных задач, включая обработку естественного языка, генерацию текста и другие приложения.