ServiceNow AI выпускает Apriel-1.5-15B-Thinker: модель для многомодального рассуждения с открытым весом, достигающая передовых показателей при ограниченном бюджете на GPU

Исследовательская лаборатория ServiceNow AI выпустила модель Apriel-1.5-15B-Thinker с 15 миллиардами параметров. Она обучена с помощью метода, ориентированного на данные, и включает непрерывный предварительный тренинг, за которым следует контролируемая точная настройка. При этом не используются методы машинного обучения с подкреплением или оптимизация предпочтений.

Основные характеристики модели:

  • Индекс искусственного анализа интеллекта (AAI): 52.

  • Экономия затрат: в 8 раз по сравнению с передовыми аналогами.

  • Совместимость с одним GPU: модель помещается на одном GPU, что позволяет использовать её в локальных сетях и при ограниченных бюджетах памяти и задержки.

  • Открытые веса и воспроизводимый конвейер: веса, рецепт обучения и протокол оценки доступны для независимой проверки.

Механизм обучения модели Apriel-1.5-15B-Thinker

  • Базовое обучение и масштабирование: модель начинается с мультимодального декодера-стека Vision от Mistral Pixtral-12B-Base-2409. Затем применяется увеличение глубины (с 40 до 48 слоёв декодера) и перестройка проекционной сети для согласования кодировщика с увеличенным декодером.

  • Непрерывный предварительный тренинг (CPT): включает два этапа: (1) использование смешанных данных (текст + изображение) для построения фундаментальных навыков рассуждения и понимания документов/диаграмм; (2) целевые синтетические визуальные задачи (реконструкция, сопоставление, обнаружение, подсчёт) для улучшения пространственного и композиционного мышления.

  • Контролируемая точная настройка (SFT): используются высококачественные данные с инструкциями для математических, кодирующих, научных задач, использования инструментов и следования инструкциям. Два дополнительных запуска SFT (стратифицированный подмножество; более длинный контекст) объединяются для формирования финальной контрольной точки.

Результаты модели

  • AIME 2025: 87,5–88%.

  • GPQA Diamond: ≈71%.

  • IFBench: ≈62%.

  • τ²-Bench Telecom: ≈68%.

  • LiveCodeBench: ≈72,8%.

Apriel демонстрирует конкурентоспособные результаты в различных задачах, включая понимание документов и диаграмм, а также текстовые математические изображения.

Краткое резюме

Apriel-1.5-15B-Thinker показывает, что тщательная настройка модели (непрерывный предварительный тренинг + контролируемая точная настройка без машинного обучения с подкреплением) может обеспечить индекс искусственного анализа интеллекта (AAI) равный 52, при этом модель остаётся развёртываемой на одном графическом процессоре. Сообщается, что показатели по отдельным задачам (например, AIME 2025 ≈88, GPQA Diamond ≈71, IFBench ≈62, Tau-squared Bench Telecom ≈68) соответствуют карточке модели и помещают 15-миллиардную контрольную точку в наиболее экономически эффективный диапазон среди текущих многомодальных рассуждающих моделей с открытым весом. Для предприятий эта комбинация — открытые веса, воспроизводимый рецепт и задержка на одном GPU — делает Apriel практическим эталоном для оценки перед рассмотрением более крупных закрытых систем.

1. Какие ключевые особенности модели Apriel-1.5-15B-Thinker делают её привлекательной для использования в локальных сетях?

Ответ: модель Apriel-1.5-15B-Thinker имеет несколько ключевых особенностей, которые делают её привлекательной для использования в локальных сетях. Во-первых, она совместима с одним GPU, что позволяет использовать её в условиях ограниченных бюджетов памяти и задержки. Во-вторых, модель демонстрирует экономию затрат в 8 раз по сравнению с передовыми аналогами, что делает её более доступной для внедрения в локальных сетях.

2. Какие методы обучения использовались при разработке модели Apriel-1.5-15B-Thinker?

Ответ: при разработке модели Apriel-1.5-15B-Thinker использовались следующие методы обучения: базовое обучение и масштабирование, непрерывный предварительный тренинг (CPT) и контролируемая точная настройка (SFT). Непрерывный предварительный тренинг включает два этапа: использование смешанных данных (текст + изображение) для построения фундаментальных навыков рассуждения и понимания документов/диаграмм, а также целевые синтетические визуальные задачи для улучшения пространственного и композиционного мышления. Контролируемая точная настройка использует высококачественные данные с инструкциями для различных задач.

3. Какие результаты показала модель Apriel-1.5-15B-Thinker в различных задачах?

Ответ: модель Apriel-1.5-15B-Thinker показала конкурентоспособные результаты в различных задачах, включая понимание документов и диаграмм, а также текстовые математические изображения. В частности, на AIME 2025 модель достигла результатов в 87,5–88%, на GPQA Diamond — ≈71%, на IFBench — ≈62%, на τ²-Bench Telecom — ≈68% и на LiveCodeBench — ≈72,8%.

4. Какие преимущества предоставляет использование модели Apriel-1.5-15B-Thinker для предприятий?

Ответ: использование модели Apriel-1.5-15B-Thinker предоставляет предприятиям несколько преимуществ. Во-первых, модель имеет открытые веса, рецепт обучения и протокол оценки, что позволяет независимо проверять её работу. Во-вторых, модель демонстрирует экономию затрат и остаётся развёртываемой на одном графическом процессоре, что делает её более доступной для внедрения. В-третьих, модель обеспечивает конкурентоспособные результаты в различных задачах, что может повысить эффективность работы предприятий.

5. Какие параметры модели Apriel-1.5-15B-Thinker обеспечивают её эффективность при ограниченном бюджете на GPU?

Ответ: эффективность модели Apriel-1.5-15B-Thinker при ограниченном бюджете на GPU обеспечивается несколькими параметрами. Во-первых, модель имеет 15 миллиардов параметров, что позволяет ей достигать передовых показателей. Во-вторых, модель использует метод обучения, ориентированный на данные, и включает непрерывный предварительный тренинг, за которым следует контролируемая точная настройка. В-третьих, модель остаётся совместимой с одним GPU, что позволяет использовать её в условиях ограниченных бюджетов.

Источник