Kong выпускает Volcano: TypeScript-SDK для создания готовых к производству AI-агентов с использованием LLM и действий в реальном мире, нативный для MCP

Kong открыл исходный код Volcano — TypeScript SDK, который позволяет создавать многошаговые рабочие процессы агентов с использованием нескольких поставщиков LLM и инструментов Model Context Protocol (MCP). Выпуск совпадает с расширением возможностей MCP в Kong AI Gateway и Konnect, что позиционирует Volcano как SDK для разработчиков в управляемой MCP плоскости управления.

Почему нужен SDK Volcano? Потому что написать 9 строк кода быстрее и проще в управлении, чем 100+.

Без SDK Volcano? Понадобится более 100 строк для обработки схем инструментов, управления контекстом, переключения провайдеров, обработки ошибок и HTTP-клиентов.

С SDK Volcano: 9 строк.

Код для импорта:

«`
import { agent, llmOpenAI, llmAnthropic, mcp } from «volcano-ai»;
«`

Настройка:

«`
// Setup: two LLMs, two MCP servers
const planner = llmOpenAI({ model: «gpt-5-mini», apiKey: process.env.OPENAIAPIKEY! });
const executor = llmAnthropic({ model: «claude-4.5-sonnet», apiKey: process.env.ANTHROPICAPIKEY! });
const database = mcp(«https://api.company.com/database/mcp»);
const slack = mcp(«https://api.company.com/slack/mcp»);
«`

Один рабочий процесс:

«`
await agent({ llm: planner })
.then({
prompt: «Analyze last week’s sales data»,
mcps: [database] // Автоматическое обнаружение и вызов нужных инструментов
})
.then({
llm: executor, // Переключение на Claude
prompt: «Write an executive summary»
})
.then({
prompt: «Post the summary to #executives»,
mcps: [slack]
})
.run();
«`

Что предоставляет Volcano?

Volcano предоставляет компактный, цепочечный API — `.then(…).run()`, который передаёт промежуточный контекст между шагами при переключении LLM на каждом шаге (например, планирование с одной моделью, выполнение с другой). Он обрабатывает MCP как интерфейс первого класса: разработчики передают Volcano список серверов MCP, а SDK автоматически выполняет обнаружение инструментов и вызов.

Возможности для производства включают автоматические повторные попытки, тайм-ауты для каждого шага, пулинг соединений для серверов MCP, аутентификацию OAuth 2.1 и OpenTelemetry traces/metrics для распределённой наблюдаемости. Проект выпущен под лицензией Apache-2.0.

Основные функции SDK Volcano:
* Цепочечный API: создание многошаговых рабочих процессов с помощью краткого шаблона `.then(…).run()`, контекст передаётся между шагами.
* Использование инструментов MCP: передача серверов MCP; SDK автоматически обнаруживает и вызывает нужные инструменты на каждом шаге.
* Поддержка нескольких провайдеров LLM: смешивание моделей (например, планирование с одной, выполнение с другой) внутри одного рабочего процесса.
* Потоковая передача промежуточных и конечных результатов для интерактивного взаимодействия агентов.
* Повторные попытки и тайм-ауты, настраиваемые для каждого шага, для обеспечения надёжности в реальных условиях сбоев.
* Хуки (до/после шага) для настройки поведения и инструментов.
* Типизированная обработка ошибок для выявления сбоев во время выполнения агента.
* Параллельное выполнение, ветвление и циклы для выражения сложного управления потоком.
* Наблюдаемость через OpenTelemetry для трассировки и метрик на шагах и вызовах инструментов.
* Поддержка OAuth и пулинг соединений для безопасного и эффективного доступа к серверам MCP.

Где Volcano вписывается в архитектуру MCP от Kong?

Платформа Konnect от Kong добавляет несколько слоёв управления и доступа к MCP, которые дополняют возможности SDK Volcano:
* AI Gateway получает функции шлюза MCP, такие как автогенерация серверов из управляемых Kong API, централизованный OAuth 2.1 для серверов MCP и наблюдаемость за инструментами, рабочими процессами и подсказками на панелях мониторинга Konnect.
* Портал разработчика Konnect может быть превращён в сервер MCP, чтобы инструменты кодирования искусственного интеллекта и агенты могли обнаруживать API, запрашивать доступ и программно использовать конечные точки — сокращая рабочие процессы с ручными учётными данными и делая каталоги API доступными через MCP.

Команда Kong также представила MCP Composer и MCP Runner для проектирования, генерации и управления серверами MCP и интеграциями.

Ключевые выводы:
* Volcano — это TypeScript SDK с открытым исходным кодом, который создаёт многошаговых AI-агентов с использованием инструментов MCP первого класса.
* SDK предоставляет функции для производства — повторные попытки, тайм-ауты, пулинг соединений, OAuth и OpenTelemetry tracing/metrics — для рабочих процессов MCP.
* Volcano объединяет многошаговые планы/исполнения LLM и автоматически обнаруживает/вызывает серверы/инструменты MCP, минимизируя необходимость в написании собственного связующего кода.
* Kong объединил SDK с элементами управления платформой: AI Gateway/Konnect добавляют автогенерацию серверов MCP, централизованный OAuth 2.1 и наблюдаемость.

Редакционные комментарии:

SDK Volcano от Kong — это прагматичное дополнение к экосистеме MCP: фреймворк для агентов, ориентированный на TypeScript, который согласовывает рабочий процесс разработчиков с корпоративными элементами управления (OAuth 2.1, OpenTelemetry), предоставляемыми через AI Gateway и Konnect. Сочетание закрывает распространённый пробел в стеках агентов — обнаружение инструментов, аутентификация и наблюдаемость — без изобретения новых интерфейсов за пределами MCP. Такой дизайн ставит во главу угла интеграцию с протоколом MCP, а не создание собственных связующих элементов, сокращая операционные расхождения и устраняя пробелы в аудите по мере масштабирования внутренних агентов.

Ознакомьтесь с репозиторием GitHub и техническими деталями. Не стесняйтесь проверять нашу страницу GitHub для руководств, кодов и ноутбуков. Также подписывайтесь на нас в Twitter и присоединяйтесь к нашему ML SubReddit с более чем 100 тысячами участников и подписывайтесь на нашу рассылку. А ещё у нас есть канал в Telegram — присоединяйтесь к нам туда!

1. Какие проблемы решает SDK Volcano при создании AI-агентов?

SDK Volcano решает несколько проблем при создании AI-агентов, таких как упрощение написания кода для многошаговых рабочих процессов, автоматизация обнаружения и вызова инструментов MCP, поддержка нескольких провайдеров LLM, обеспечение надёжности через повторные попытки и тайм-ауты, а также предоставление наблюдаемости через OpenTelemetry.

2. Какие основные функции предоставляет SDK Volcano для разработки AI-агентов?

SDK Volcano предоставляет следующие основные функции:
* Цепочечный API для создания многошаговых рабочих процессов.
* Использование инструментов MCP для автоматического обнаружения и вызова нужных инструментов.
* Поддержка нескольких провайдеров LLM.
* Потоковая передача промежуточных и конечных результатов.
* Повторные попытки и тайм-ауты для обеспечения надёжности.
* Хуки для настройки поведения и инструментов.
* Типизированная обработка ошибок.
* Параллельное выполнение, ветвление и циклы для сложного управления потоком.
* Наблюдаемость через OpenTelemetry.
* Поддержка OAuth и пулинг соединений.

3. Как Volcano интегрируется с платформой Konnect от Kong?

Volcano интегрируется с платформой Konnect от Kong через AI Gateway, который предоставляет функции шлюза MCP, такие как автогенерация серверов из управляемых Kong API, централизованный OAuth 2.1 для серверов MCP и наблюдаемость за инструментами, рабочими процессами и подсказками на панелях мониторинга Konnect. Портал разработчика Konnect может быть превращён в сервер MCP, что сокращает рабочие процессы с ручными учётными данными и делает каталоги API доступными через MCP.

Источник