Microsoft представляет rStar2-Agent: модель математических рассуждений на 14 миллиардов параметров, обученная с помощью агентского обучения с подкреплением для достижения передовых показателей

Оглавление 1. Проблема «более длительного размышления».2. Агентский подход.3. Проблемы инфраструктуры и решения.4. GRPO-RoC: обучение на высококачественных примерах.5. Стратегия обучения: от простого к сложному.6. Прорывные результаты.7. Понимание механизмов.8. Резюме. Проблема «более длительного размышления» Большие языковые модели добились впечатляющих успехов в математических рассуждениях, расширив свои процессы «Chain-of-Thought» (CoT) — по сути, «размышляя дольше» за счёт более детальных … Читать далее

Accenture Research представляет MCP-Bench: крупномасштабный бенчмарк для оценки агентов LLM в сложных задачах реального мира через серверы MCP

Современные большие языковые модели (LLM) вышли далеко за рамки простого генерации текста. Многие из наиболее перспективных приложений в реальном мире требуют, чтобы эти модели использовали внешние инструменты — такие как API, базы данных и программные библиотеки — для решения сложных задач. Но как мы можем быть уверены, что агент ИИ может планировать, рассуждать и координировать … Читать далее

Топ-20 блогов и новостных сайтов о голосовом ИИ в 2025 году: полное руководство по ресурсам

Технология голосового ИИ в 2025 году переживает беспрецедентный рост: революционные прорывы в области разговорного ИИ в реальном времени, эмоционального интеллекта и голосового синтеза. Поскольку предприятия всё чаще внедряют голосовых агентов, а потребители принимают на вооружение ИИ-ассистентов нового поколения, оставаться в курсе последних событий стало крайне важно для профессионалов из разных отраслей. Мировой рынок голосового ИИ … Читать далее

Лаборатория Microsoft AI представляет MAI-Voice-1 и MAI-1-Preview: новые внутренние модели для голосового ИИ

Лаборатория Microsoft AI официально запустила модели MAI-Voice-1 и MAI-1-Preview, что знаменует новый этап в исследованиях и разработках компании в области искусственного интеллекта. В объявлении поясняется, как Microsoft AI Lab участвует в исследованиях ИИ без привлечения третьих сторон. Модели MAI-Voice-1 и MAI-1-Preview выполняют различные, но дополняющие друг друга функции в области синтеза речи и понимания языка … Читать далее

Создание и оптимизация интеллектуальных конвейеров машинного обучения с помощью TPOT для полной автоматизации и повышения производительности

В этом руководстве мы покажем, как использовать TPOT для автоматизации и оптимизации конвейеров машинного обучения на практике. Мы будем работать непосредственно в Google Colab, чтобы обеспечить лёгкость настройки, воспроизводимость и доступность. Этапы работы 1. Загрузка данных.2. Определение пользовательского счётчика (scorer).3. Настройка пространства поиска с использованием продвинутых моделей, таких как XGBoost.4. Настройка стратегии перекрёстной проверки (cross-validation). … Читать далее

Состояние голосового искусственного интеллекта в 2025 году: тенденции, прорывы и лидеры рынка

2025 год стал переломным для агентов голосового ИИ. Технологии достигли уровня естественности, понимания контекста и коммерческого внедрения, который ещё недавно казался немыслимым. Благодаря значительным достижениям в области распознавания речи, понимания естественного языка и мультимодальной интеграции, голосовой ИИ больше не ограничивается системами команд и запросов — он быстро становится центральным интерфейсом для взаимодействия человека и машины, … Читать далее

Как сократить расходы на обучение ИИ на 80%? Новый оптимизатор из Оксфорда ускоряет обучение в 7,5 раз за счёт оптимизации процесса обучения модели

Скрытые расходы на ИИ: счёт за GPU Обучение моделей ИИ обычно требует огромных затрат на вычислительные ресурсы GPU. Это ложится тяжёлым бременем на бюджеты, ограничивает эксперименты и замедляет прогресс. Представьте, что вы можете сократить расходы на GPU на 87% — просто сменив оптимизатор. Это обещание Fisher-Orthogonal Projection (FOP) — новейшего исследования команды из Оксфорда. В … Читать далее

OpenAI выпустила усовершенствованную модель для преобразования речи в речь и новые возможности API в реальном времени, включая поддержку сервера MCP, ввод изображений и возможность звонков по SIP-телефонии

Компания OpenAI официально запустила Realtime API и gpt-realtime — свою самую передовую модель для преобразования речи в речь, выведя Realtime API из стадии бета-тестирования с набором функций, ориентированных на корпоративных клиентов. Хотя анонс знаменует реальный прогресс в технологии голосового искусственного интеллекта, более детальный анализ выявляет как значимые улучшения, так и сохраняющиеся проблемы, которые сдерживают любые … Читать далее

Как обучение с подкреплением усиливает возможности памяти у агентов на базе больших языковых моделей

Большие языковые модели (БЯМ) стали основой для многочисленных прорывов в области искусственного интеллекта: чат-боты, помощники в программировании, системы ответов на вопросы, творческое письмо и многое другое. Однако, несмотря на их возможности, они не обладают памятью о предыдущих взаимодействиях. Их фиксированные контекстные окна не позволяют накапливать устойчивые знания в ходе длительных бесед или многосессионных задач, и … Читать далее

Обоснование использования экспертно размеченных данных в медицинском ИИ: пример PadChest-GR — первого мультимодального, двуязычного набора данных на уровне предложений для составления радиологических отчётов

Введение в мультимодальный прорыв в области радиологии Недавние достижения в области медицинского ИИ показали, что прорывы зависят не только от сложности моделей, но и от качества и богатства исходных данных. Это исследование посвящено новаторскому сотрудничеству между Centaur.ai, Microsoft Research и Университетом Аликанте, кульминацией которого стал PadChest-GR — первый мультимодальный, двуязычный набор данных на уровне предложений … Читать далее

Как создать многоэтапного агента для глубоких исследований с помощью Gemini, API DuckDuckGo и автоматизированной отчётности?

Мы начинаем с разработки модульной системы глубоких исследований, которая работает непосредственно на Google Colab. В качестве основного механизма рассуждений мы используем Gemini, интегрируем API DuckDuckGo Instant Answer для лёгкого веб-поиска и организуем многоэтапный запрос с дедупликацией и обработкой задержек. Основные этапы: 1. Настройка системы: – Определяем класс `ResearchConfig` для управления параметрами, такими как API-ключи, ограничения … Читать далее

Представляем GPT-Realtime и обновления API в режиме реального времени.

Мы выпустили более продвинутую модель для перевода речи в речь и новые возможности API, включая поддержку серверов MCP, возможность ввода данных с изображений и поддержку звонков через SIP-телефоны. #GPT-Realtime #API 1. Какие новые функции включает в себя модель GPT-Realtime? Ответ: модель GPT-Realtime включает в себя более продвинутые возможности для перевода речи в речь, а также … Читать далее

Исследователи MIT разработали инструмент искусственного интеллекта для улучшения выбора штаммов для вакцины против гриппа

Каждый год эксперты в области здравоохранения сталкиваются с непростой задачей: какие штаммы гриппа включить в следующую сезонную вакцину? Решение необходимо принимать за несколько месяцев до начала сезона гриппа, и часто это похоже на гонку со временем. Если выбранные штаммы соответствуют циркулирующим, вакцина, скорее всего, будет высокоэффективной. Но если прогноз не оправдается, защита может значительно снизиться, … Читать далее

Поддержка некоммерческих организаций и инноваций в обществе.

Компания OpenAI запускает фонд поддержки искусственного интеллекта размером в 50 миллионов долларов, чтобы помочь некоммерческим организациям США расширить влияние с помощью ИИ. Заявления на получение грантов принимаются с 8 сентября по 8 октября 2025 года в таких сферах, как образование, здравоохранение, научные исследования и других. 1. Какие цели преследует фонд поддержки искусственного интеллекта от компании … Читать далее

Обзор ландшафта больших языковых моделей в Австралии: техническая оценка

Ключевые моменты В Австралии пока не появилась собственная большая языковая модель (LLM), которая могла бы конкурировать на глобальном уровне. Австралийские исследования и бизнес в основном полагаются на международные модели LLM, которые имеют ограничения при работе с австралийским английским и культурным контекстом. Kangaroo LLM: проект по созданию локальной модели Kangaroo LLM — это единственный крупный проект … Читать далее

Коллективное согласование: общественное мнение о спецификации модели

Компания OpenAI опросила более тысячи человек по всему миру о том, как должен вести себя искусственный интеллект, и сравнила их взгляды со спецификацией нашей модели. Узнайте, как коллективное согласование формирует настройки искусственного интеллекта, чтобы лучше отражать разнообразные человеческие ценности и точки зрения. 🔍 1. Какие цели преследовала компания OpenAI, проводя опрос среди более тысячи человек … Читать далее

Команда Nous Research выпускает Hermes 4: семейство моделей искусственного интеллекта с гибридным мышлением

Команда Nous Research выпустила Hermes 4 — семейство моделей с открытым весом (размерами параметров 14B, 70B и 405B, основанных на контрольных точках Llama 3.1), которые достигают передовых показателей с помощью методов пост-тренировки. Hermes 4 вводит гибридное мышление — модели могут переключаться между стандартными ответами и явным мышлением с использованием тегов `…`, когда сложные задачи требуют … Читать далее

Реализация кодирования эволюции квантового состояния, декогеренции и динамики запутанности с помощью QuTiP

В этом продвинутом руководстве по QuTiP мы исследуем богатую динамику квантовых систем с использованием Python и фреймворка QuTiP. 1. Создание квантовых состояний Мы начнём с подготовки фундаментальных состояний одно- и двухкубитов, включая пары Белла, а затем перейдём к реализации ключевых квантовых операций, таких как матрицы Паули, вентиль Хадамарда и CNOT. “`pythonimport numpy as npimport matplotlib.pyplot … Читать далее

Что такое агентский RAG?

Использование и основные возможности Лучшие инструменты и платформы для агентского RAG (2025) Что такое агентский RАГ? Агентский RAG сочетает в себе сильные стороны традиционного RAG, где большие языковые модели (LLM) извлекают и обосновывают результаты во внешнем контексте, с агентским принятием решений и использованием инструментов. В отличие от статических подходов, агентский RAG включает в себя ИИ-агентов, … Читать далее

OpenAI и Anthropic опубликовали результаты совместной оценки безопасности.

В рамках первой в своём роде совместной оценки безопасности OpenAI и Anthropic проверили модели друг друга на несогласованность, выполнение инструкций, галлюцинации, возможность «джейлбрейка» (попытки обойти ограничения) и другие аспекты. Это позволило выявить прогресс, проблемы и ценность сотрудничества между лабораториями. 1. Какие аспекты были проверены в рамках совместной оценки безопасности моделей OpenAI и Anthropic? В рамках … Читать далее

Meta AI представляет DeepConf: первый метод искусственного интеллекта для достижения 99,9% точности на AIME 2025 с помощью моделей с открытым исходным кодом на базе GPT-OSS-120B

Большие языковые модели (LLMs) изменили подход к рассуждениям в сфере искусственного интеллекта. Методы параллельного мышления и самосогласованности часто называют ключевыми достижениями. Однако эти методы сталкиваются с фундаментальным компромиссом: выборка множества путей рассуждений повышает точность, но требует значительных вычислительных затрат. Команда исследователей из Meta AI и UCSD представляет Deep Think with Confidence (DeepConf) — новый подход … Читать далее

Эволюция протоколов искусственного интеллекта: почему Model Context Protocol (MCP) может стать новым HTTP для ИИ

Добро пожаловать в новую эру совместимости ИИ, где Model Context Protocol (MCP) готов сделать для агентов и помощников ИИ то, что HTTP сделал для интернета. Если вы разрабатываете, масштабируете или анализируете системы ИИ, MCP — это открытый стандарт, который нельзя игнорировать. Он обеспечивает универсальный контракт для обнаружения инструментов, получения ресурсов и координации сложных рабочих процессов … Читать далее

Новая языковая модель Google для регрессии (RLM) позволяет большим языковым моделям (LLM) прогнозировать производительность промышленных систем напрямую из необработанных текстовых данных

Новая модель Google для регрессии на основе языка (RLM) позволяет большим языковым моделям (LLM) прогнозировать производительность промышленных систем напрямую из необработанных текстовых данных, не полагаясь на сложный инжиниринг признаков или жёсткие табличные форматы. Проблема прогнозирования производительности промышленных систем Прогнозирование производительности для крупномасштабных промышленных систем, таких как вычислительные кластеры Google Borg, традиционно требовало обширного инжиниринга функций … Читать далее

Реализация кода продвинутого ИИ-агента, использующего инструменты, с Semantic Kernel и Gemini

В этом руководстве мы создадим продвинутого ИИ-агента с использованием Semantic Kernel в сочетании с бесплатной моделью Google Gemini и запустим его в Google Colab. Шаги реализации 1. Настройка инструментов Semantic Kernel: подключаем плагины Semantic Kernel в виде инструментов, таких как веб-поиск, математическая оценка, ввод-вывод файлов и создание заметок.2. Использование Gemini: позволяем Gemini координировать инструменты через … Читать далее

NVIDIA представила Jet-Nemotron: серию языковых моделей с гибридной архитектурой, которая работает в 53 раза быстрее и на 98 % снижает затраты на вычисления

Исследователи NVIDIA преодолели давнее препятствие в области эффективности больших языковых моделей (LLM), представив Jet-Nemotron — семейство моделей (2B и 4B), которые обеспечивают до 53,6-кратное увеличение производительности по сравнению с ведущими моделями LLM с полным вниманием, сохраняя при этом точность или даже превосходя её. Необходимость скорости в современных LLM Сегодняшние передовые LLM, такие как Qwen3, Llama3.2 … Читать далее

Google AI представляет Gemini 2.5 Flash Image: новая модель для генерации и редактирования изображений

Что делает Gemini 2.5 Flash Image впечатляющим? Gemini 2.5 Flash Image — это модель нового поколения, разработанная для того, чтобы пользователи могли генерировать и редактировать изображения, просто описывая их. Инновационность модели заключается в том, как она обеспечивает точные, последовательные и высококачественные правки с впечатляющей скоростью и масштабом. Gemini 2.5 Flash Image построена на мультимодальной основе … Читать далее

Простые модели могут превосходить глубокое обучение в прогнозировании климата

Учёные-экологи всё чаще используют огромные модели искусственного интеллекта для прогнозирования изменений погоды и климата. Однако новое исследование, проведённое учёными из Массачусетского технологического института (MIT), показывает, что большие модели не всегда лучше. Команда демонстрирует, что в некоторых климатических сценариях гораздо более простые, основанные на физике модели могут генерировать более точные прогнозы, чем современные модели глубокого обучения. … Читать далее

Помощь людям в самые трудные моменты.

Как мы заботимся о безопасности пользователей, испытывающих психические или эмоциональные трудности, какие есть ограничения у современных систем и какая работа ведётся для их усовершенствования. 1. Какие технологии используются для помощи людям, испытывающим психические или эмоциональные трудности, и как они способствуют улучшению их состояния? В статье не указаны конкретные технологии, но упоминается работа по усовершенствованию систем … Читать далее

Что такое MLSecOps (Secure CI/CD for Machine Learning)?: Лучшие инструменты MLSecOps (2025)

Машинное обучение (ML) преобразует отрасли, внедряя инновации в таких разнообразных областях, как финансовые услуги, здравоохранение, автономные системы и электронная коммерция. Однако по мере того как организации внедряют модели машинного обучения в промышленных масштабах, традиционные подходы к доставке программного обеспечения — в первую очередь непрерывная интеграция и непрерывное развёртывание (CI/CD) — выявили критические пробелы при применении … Читать далее

Ваша модель обработки естественного языка работает в 5 раз медленнее, чем должна. Причина — пессимизм, и исследователи из Стэнфорда только что показали, как это исправить

В быстро меняющемся мире искусственного интеллекта большие языковые модели (LLM), такие как GPT-4 и Llama, используются повсеместно: от чат-ботов до помощников в написании кода. Но вот неприятный факт: процесс генерации ответов (инференс LLM) может быть в пять раз медленнее, чем необходимо. Виной тому чрезмерно осторожный подход к обработке неопределённости в длинах выходных данных. Скрытое узкое … Читать далее