OpenAI представляет исследовательский предварительный просмотр GPT-5.3-Codex-Spark: модель искусственного интеллекта для кодирования, которая в 15 раз быстрее

Компания OpenAI только что выпустила новый исследовательский предварительный просмотр под названием GPT-5.3 Codex-Spark. Эта модель создана для одной цели: экстремальной скорости. В то время как стандартный GPT-5.3 Codex фокусируется на глубоком анализе, Spark разработан для практически мгновенного отклика. Это результат глубокой интеграции аппаратного и программного обеспечения между OpenAI и Cerebras.

Результаты меняют правила игры. Spark в 15 раз быстрее, чем флагманская модель GPT-5.3 Codex. Она стабильно выдаёт более 1000 токенов в секунду. Такая скорость фактически устраняет задержку между мыслью разработчика и выводом кода модели.

Аппаратное обеспечение: инженерия в масштабе вафель

Мощный скачок производительности обеспечивается за счёт Cerebras Wafer-Scale Engine 3 (WSE-3). Традиционные модели ИИ работают на кластерах небольших графических процессоров (GPU). Эти GPU должны обмениваться данными по кабелям, что создаёт «узкое место». Это узкое место замедляет работу модели.

WSE-3 отличается: это один гигантский чип размером с целую кремниевую пластину. Поскольку вся модель размещается на одном куске кремния, кабелей, замедляющих работу, нет. Эта архитектура обеспечивает:
* огромный объём памяти на чипе;
* сверхвысокую пропускную способность;
* вычисления с низкой задержкой.

Используя систему Cerebras CS-3, OpenAI может выполнять вычисления на скоростях, недостижимых для традиционных кластеров GPU.

Оптимизация программного обеспечения и низкая задержка

Скорость — это не только чип. Компания OpenAI переработала способ взаимодействия модели с вашим компьютером. Они отказались от традиционных методов запросов и ввели постоянное соединение WebSocket.

Это изменение привело к нескольким техническим улучшениям:
* Время туда и обратно (RTT): накладные расходы клиент-сервер сокращены на 80%.
* Время до первого токена (TTFT): это улучшено на 50%, что означает, что код начинает появляться почти в тот момент, когда вы нажимаете Enter.
* Накладные расходы на токен: внутреннее время обработки на токен сокращено на 30%.

Эти оптимизации позволяют осуществлять «управление в реальном времени». Вы можете прервать модель, пока она печатает, и перенаправить её логику, не дожидаясь завершения полного блока.

Компромиссы: скорость против рассуждений

GPT-5.3 Codex-Spark оптимизирован для пропускной способности, а не для глубокой сложности. Это «меньшая» модель по сравнению с флагманской GPT-5.3 Codex. Из-за этого у неё меньшая глубина рассуждений.

Основные отличия

Разработчики должны знать об этих различиях в производительности:
* Бенчмарки: Spark набирает меньше баллов на SWE-Bench Pro и Terminal-Bench 2.0 по сравнению с флагманской моделью. Он может испытывать трудности с очень сложными изменениями многофайловой архитектуры.
* Безопасность: в рамках системы готовности OpenAI флагманская модель GPT-5.3 Codex оценивается как «высокая» с точки зрения возможностей кибербезопасности. Spark не соответствует этому высокому порогу. Его не следует использовать для чувствительной логики безопасности или задач автономной аутентификации.

Быстрый доступ и спецификации

Spark доступен сейчас для пользователей ChatGPT Pro и разработчиков. Вы можете получить к нему доступ через следующие инструменты:
* Приложение Codex: используйте средство выбора моделей, чтобы выбрать «Spark».
* Расширение VS Code: интегрировано непосредственно в композитор.
* CLI: получите доступ через команду `codex —model gpt-5.3-codex-spark`.

Основные выводы

* Отличная скорость: Spark в 15 раз быстрее, чем флагманская модель GPT-5.3 Codex, обеспечивая беспрецедентную пропускную способность — более 1000 токенов в секунду, что позволяет генерировать код практически мгновенно.
* Специализированная кремниевая инфраструктура: это первая модель OpenAI, работающая на оборудовании Cerebras Wafer-Scale Engine 3 (WSE-3), а не на традиционных графических процессорах NVIDIA, с использованием памяти «в масштабе вафель» для устранения узких мест в передаче данных.
* Значительное сокращение задержек: интеграция постоянного соединения WebSocket сокращает накладные расходы клиент-сервер на 80% и улучшает время до первого токена на 50%.
* Управление в реальном времени: модель разработана для «микроитераций», скорость позволяет разработчикам прерывать и перенаправлять логику в реальном времени, переводя рабочий процесс из пакетной обработки в живое парное программирование.
* Компромиссы в возможностях: хотя Spark и быстрее, у него меньшая глубина рассуждений, чем у флагманской модели, и он не соответствует порогу «высоких возможностей» для кибербезопасности в системе готовности OpenAI, что делает его непригодным для чувствительных задач аутентификации или безопасности.

1. Какие преимущества предоставляет модель GPT-5.3 Codex-Spark по сравнению с другими моделями ИИ для кодирования?

Ответ: модель GPT-5.3 Codex-Spark отличается экстремальной скоростью, обеспечивая более 1000 токенов в секунду. Это устраняет задержку между мыслью разработчика и выводом кода модели, делая процесс разработки более эффективным.

2. Какие аппаратные решения позволили достичь высокой производительности GPT-5.3 Codex-Spark?

Ответ: высокая производительность GPT-5.3 Codex-Spark достигнута благодаря использованию Cerebras Wafer-Scale Engine 3 (WSE-3). Это один гигантский чип размером с целую кремниевую пластину, который обеспечивает огромный объём памяти на чипе, сверхвысокую пропускную способность и вычисления с низкой задержкой.

3. Какие программные оптимизации были внедрены для улучшения взаимодействия модели с компьютером?

Ответ: OpenAI переработала способ взаимодействия модели с компьютером, отказавшись от традиционных методов запросов и введя постоянное соединение WebSocket. Это привело к сокращению времени туда и обратно (RTT) на 80%, времени до первого токена (TTFT) на 50% и накладных расходов на токен на 30%.

4. Какие компромиссы существуют при использовании GPT-5.3 Codex-Spark по сравнению с флагманской моделью GPT-5.3 Codex?

Ответ: GPT-5.3 Codex-Spark оптимизирован для пропускной способности, а не для глубокой сложности. Это «меньшая» модель по сравнению с флагманской GPT-5.3 Codex, что приводит к меньшей глубине рассуждений. Также Spark не соответствует высокому порогу кибербезопасности, установленному для флагманской модели.

5. Какие инструменты можно использовать для доступа к GPT-5.3 Codex-Spark?

Ответ: доступ к GPT-5.3 Codex-Spark можно получить через приложение Codex (используя средство выбора моделей), расширение VS Code и CLI (через команду `codex —model gpt-5.3-codex-spark`).

Источник