Zhipu AI выпустила GLM-4.6 — крупное обновление серии GLM, ориентированное на агентские рабочие процессы, рассуждения в длинном контексте и практические задачи кодирования.
Основные характеристики модели:
* увеличенное окно ввода до 200 тыс. токенов при максимальном выводе в 128 тыс. токенов;
* снижение потребления токенов в прикладных задачах;
* открытые веса для локального развёртывания.
Что нового?
* Ограничения контекста и вывода: 200 тыс. токенов для ввода и 128 тыс. токенов для вывода.
* Результаты кодирования в реальных условиях: на расширенном CC-Bench (многоэтапные задачи, выполняемые оценщиками в изолированной среде Docker) GLM-4.6 демонстрирует результаты, близкие к Claude Sonnet 4 (48,6% побед), и использует примерно на 15% меньше токенов по сравнению с GLM-4.5 для выполнения задач.
* Позиционирование в бенчмарках: Zhipu отмечает «явные преимущества» по сравнению с GLM-4.5 в восьми публичных бенчмарках и утверждает о паритете с Claude Sonnet 4/4.6 по нескольким показателям; также отмечается, что GLM-4.6 всё ещё отстаёт от Sonnet 4.5 в кодировании — это важно учитывать при выборе модели.
* Доступность в экосистеме: GLM-4.6 доступна через Z.ai API и OpenRouter; она интегрируется с популярными агентами кодирования (Claude Code, Cline, Roo Code, Kilo Code), а существующие пользователи Coding Plan могут обновиться, изменив имя модели на glm-4.6.
* Открытые веса и лицензия: модель Hugging Face имеет лицензию MIT и размер модели 355 млрд параметров (MoE) с тензорами BF16/F32.
* Локальный вывод: vLLM и SGLang поддерживаются для локального обслуживания; веса доступны на Hugging Face и ModelScope.
Краткое содержание
GLM-4.6 — это значительный, но постепенный шаг вперёд: окно контекста в 200 тыс., снижение потребления токенов на 15% по сравнению с GLM-4.5 на CC-Bench, паритетный уровень побед в задачах с Claude Sonnet 4 и немедленная доступность через Z.ai, OpenRouter и открытые веса для локального развёртывания.
Часто задаваемые вопросы
1. Каковы ограничения по контексту и выводу токенов?
GLM-4.6 поддерживает 200 тыс. токенов для ввода и 128 тыс. токенов для вывода.
2. Доступны ли открытые веса и под какой лицензией?
Да, Hugging Face модельная карточка перечисляет открытые веса с лицензией MIT и конфигурацией MoE на 357 млрд параметров (тензоры BF16/F32).
3. Как GLM-4.6 сравнивается с GLM-4.5 и Claude Sonnet 4 в прикладных задачах?
На расширенном CC-Bench GLM-4.6 использует примерно на 15% меньше токенов по сравнению с GLM-4.5 и демонстрирует паритет с Claude Sonnet 4 (48,6% побед).
4. Могу ли я запустить GLM-4.6 локально?
Да, Zhipu предоставляет веса на Hugging Face/ModelScope и документирует локальный вывод с помощью vLLM и SGLang; появляются количественные данные сообщества для оборудования класса рабочих станций.
Ознакомьтесь с [GitHub Page](https://z.ai/blog/glm-4.6), [Hugging Face Model Card](https://z.ai/blog/glm-4.6) и [Technical details](https://z.ai/blog/glm-4.6). Не стесняйтесь посетить нашу [GitHub Page](https://z.ai/blog/glm-4.6) для ознакомления с учебными пособиями, кодами и ноутбуками. Также подписывайтесь на нас в [Twitter](https://z.ai/blog/glm-4.6) и присоединяйтесь к нашему [100k+ ML SubReddit](https://z.ai/blog/glm-4.6) и подписывайтесь на [наш Newsletter](https://z.ai/blog/glm-4.6).
1. Какие преимущества предлагает модель GLM-4.6 по сравнению с предыдущей версией GLM-4.5?
Ответ: GLM-4.6 демонстрирует явные преимущества по сравнению с GLM-4.5 в восьми публичных бенчмарках, использует примерно на 15% меньше токенов для выполнения задач и имеет увеличенное окно ввода до 200 тыс. токенов при максимальном выводе в 128 тыс. токенов.
2. В каких задачах модель GLM-4.6 показывает лучшие результаты по сравнению с Claude Sonnet 4?
Ответ: На расширенном CC-Bench GLM-4.6 демонстрирует результаты, близкие к Claude Sonnet 4 (48,6% побед), и использует примерно на 15% меньше токенов по сравнению с GLM-4.5 для выполнения задач.
3. Какие инструменты и платформы поддерживают интеграцию с GLM-4.6?
Ответ: GLM-4.6 интегрируется с популярными агентами кодирования (Claude Code, Cline, Roo Code, Kilo Code), доступна через Z.ai API и OpenRouter. Существующие пользователи Coding Plan могут обновиться, изменив имя модели на glm-4.6.
4. Какие параметры и лицензии у модели GLM-4.6?
Ответ: Модель Hugging Face имеет лицензию MIT и размер модели 355 млрд параметров (MoE) с тензорами BF16/F32. Веса доступны на Hugging Face и ModelScope.
5. Какие возможности предоставляет модель GLM-4.6 для локального развёртывания?
Ответ: Zhipu предоставляет веса на Hugging Face/ModelScope и документирует локальный вывод с помощью vLLM и SGLang.