OpenAI только что выпустила две новые языковые модели с открытым весом

Компания OpenAI выпустила две новые языковые модели с открытым весом: gpt-oss-120B и gpt-oss-20B. Их можно скачать, изучить, настроить и запустить на собственном оборудовании. Знакомьтесь с моделями: технические чудеса с практическими возможностями gpt-oss-120B * Размер: 117 миллиардов параметров (с 5,1 миллиарда активных параметров на токен благодаря технологии Mixture-of-Experts).* Производительность: на уровне OpenAI o4-mini (или лучше) в … Читать далее

Anthropic AI представляет векторы персон для мониторинга и контроля изменений личности в больших языковых моделях

Большие языковые модели (LLMs) используются через диалоговые интерфейсы, которые представляют полезные, безвредные и честные помощники. Однако они не могут поддерживать согласованные черты личности на этапах обучения и развёртывания. LLM демонстрируют резкие и непредсказуемые изменения личности при использовании различных стратегий подсказок или контекстуальных входных данных. Процесс обучения также может вызывать непреднамеренные изменения личности, как это видно, … Читать далее

Модели с открытым весом: gpt-oss-120b и gpt-oss-20b

Следующий рубеж развития искусственного интеллекта (ИИ) — это не только его возможности, но и то, кто сможет их использовать. Наша миссия — предоставить ИИ как можно большему числу людей — вот что нами движет. Сегодняшний выпуск наших наиболее мощных моделей с открытым весом — это значительный шаг вперёд, который делает передовой ИИ более открытым, гибким … Читать далее

Создание многофункциональной системы диалогового ИИ с помощью Microsoft AutoGen и Gemini API

В этом руководстве мы рассмотрим, как интегрировать Microsoft AutoGen с бесплатным API Google Gemini с помощью LiteLLM. Это позволит нам создать мощную систему диалогового ИИ с несколькими агентами, которая будет без проблем работать в Google Colab. Мы подробно разберём процесс настройки среды, настройки Gemini для совместимости с AutoGen и создания специализированных команд агентов для выполнения … Читать далее

Google AI выпускает LangExtract: открытую библиотеку Python для извлечения структурированных данных из неструктурированных текстовых документов

В современном мире, управляемом данными, ценные сведения часто скрыты в неструктурированном тексте — будь то клинические записи, длинные юридические договоры или отзывы клиентов. Извлечение значимой, отслеживаемой информации из этих документов является сложной технической и практической задачей. Новая открытая библиотека Python от Google AI, LangExtract, предназначена для решения этой проблемы напрямую, используя большие языковые модели (LLMs) … Читать далее

NASA представляет Galileo: мультимодальную модель с открытым исходным кодом для наблюдения за Землёй и дистанционного зондирования

Введение Galileo — это модель с открытым исходным кодом, разработанная для обработки, анализа и понимания различных потоков данных дистанционного зондирования Земли, включая оптические, радарные, высотные, климатические данные и вспомогательные карты. Модель создана при поддержке исследователей из Университета Макгилла, NASA Harvest Ai2, Карлтонского университета, Университета Британской Колумбии, Векторного института и Университета штата Аризона. Цель Galileo — … Читать далее

Инструмент MIT визуализирует и редактирует «физически невозможные» объекты

Творчество М. К. Эшера открывает дверь в мир оптических иллюзий, бросающих вызов законам физики. Его работы включают «невозможные объекты» со сложной геометрией. То, как вы воспринимаете иллюстрации Эшера, зависит от вашей точки зрения. Например, человек, идущий вверх по лестнице, может на самом деле спускаться по ней, если вы наклоните голову в сторону. Учёные и дизайнеры … Читать далее

Для чего мы оптимизируем ChatGPT.

Мы создаём ChatGPT, чтобы помочь вам преуспеть во всех сферах жизни. Узнайте, как мы улучшаем поддержку в трудные моменты, внедрили напоминания о перерывах и работаем над улучшением жизненных советов — и всё это под руководством экспертов. 1. Какие конкретные задачи решает оптимизация ChatGPT? Ответ: оптимизация ChatGPT направлена на улучшение поддержки пользователей в трудные моменты, внедрение … Читать далее

Теперь мир принадлежит Клоду: как Anthropic обогнала OpenAI в гонке корпоративных ИИ-решений

Ситуация на рынке корпоративных ИИ-решений изменилась. Согласно отчёту Menlo Ventures «Mid-Year LLM Market Update» за 2025 год, языковая модель Claude от компании Anthropic обогнала OpenAI и стала лидером на рынке корпоративных решений, захватив 32% доли рынка по сравнению с 25% у OpenAI — это разительно отличается от доминирующих 50% доли рынка, которые были у OpenAI … Читать далее

Семь основных слоёв для создания реальных ИИ-агентов в 2025 году: комплексная структура

Создание интеллектуального агента — это гораздо больше, чем просто разработка эффективных запросов для языковых моделей. Чтобы разработать автономные системы искусственного интеллекта (ИИ), способные мыслить, рассуждать, действовать и учиться, необходимо создать комплексное решение, которое объединяет несколько тесно интегрированных компонентов. 1. Уровень взаимодействия — Human Interface (человеческий интерфейс) Уровень взаимодействия служит связующим звеном между человеком и агентом. … Читать далее

ByteDance представляет Seed-Prover: передовую систему формальных рассуждений для автоматизированного доказательства математических теорем

Системы на базе больших языковых моделей (LLMs) продемонстрировали заметные улучшения в математическом мышлении благодаря работе с естественным языком. Это привело к повышению производительности по таким бенчмаркам, как MATH и AIME. Однако при обучении этих моделей с помощью подкрепляющего обучения (RL) возникает проблема: проверка правильности доказательств на естественном языке очень сложна. Требуется тщательная ручная проверка каждого … Читать далее

Tutorial: изучение визуализаций SHAP-IQ

В этом руководстве мы рассмотрим различные визуализации SHAP-IQ, которые помогают понять, как модель машинного обучения делает свои прогнозы. Эти визуализации разбивают сложное поведение модели на интерпретируемые компоненты, показывая как индивидуальный, так и совместный вклад признаков в конкретное предсказание. Установка зависимостей Для начала работы установите необходимые зависимости: `!pip install shapiq overrides scikit-learn pandas numpy seaborn` Импортирование … Читать далее

Техническая дорожная карта по разработке механизмов обработки контекста в больших языковых моделях: механизмы, критерии оценки и открытые вызовы

Оглавление Что такое обработка контекста? Таксономия обработки контекста Ключевые идеи и пробелы в исследованиях Применение и влияние Перспективы развития В статье «Обзор методов обработки контекста для больших языковых моделей» обработка контекста определяется как формальная дисциплина, выходящая далеко за рамки разработки запросов. Она представляет собой единую систематическую основу для проектирования, оптимизации и управления информацией, которая направляет … Читать далее

Полное руководство по CPU, GPU, NPU и TPU для искусственного интеллекта и машинного обучения: производительность, варианты использования и ключевые различия

Искусственный интеллект и рабочие нагрузки машинного обучения способствовали развитию специализированного оборудования для ускорения вычислений, далеко выходящего за рамки возможностей традиционных центральных процессоров (ЦП). Каждое вычислительное устройство — ЦП, графический процессор (ГПУ), нейронный процессор (НПУ) и тензорный процессор (ТПУ) — играет определённую роль в экосистеме искусственного интеллекта, оптимизированную для определённых моделей, приложений или сред. Вот технический … Читать далее

Создание комплексной системы отслеживания объектов и аналитики с помощью Roboflow Supervision

В этом продвинутом руководстве по Roboflow Supervision мы создадим полный конвейер обнаружения объектов с помощью библиотеки Supervision. Начало работы 1. Настройка отслеживания объектов в реальном времени с помощью ByteTracker, добавление сглаживания обнаружения и определение полигональных зон для мониторинга определённых областей в видеопотоке.2. Обработка кадров и аннотирование их с помощью ограничивающих рамок, идентификаторов объектов и данных … Читать далее

Команда DeepReinforce представляет CUDA-L1: автоматизированную систему обучения с подкреплением для оптимизации CUDA, раскрывающую тройной потенциал мощности GPU

Введение в прорыв: контрастивное обучение с подкреплением (Contrastive-RL) Команда DeepReinforce представила новый фреймворк под названием CUDA-L1, который обеспечивает среднее ускорение в 3,12 раза и до 120 раз на пике для 250 реальных задач на GPU. Этот фреймворк работает без вмешательства человека и использует открытый исходный код на широко используемом оборудовании NVIDIA. Как работает CUDA-L1? В … Читать далее

Google выпускает MLE-STAR: передовой агент для автоматизации задач машинного обучения

MLE-STAR (Machine Learning Engineering via Search and Targeted Refinement) — это передовая агентская система, разработанная исследователями Google Cloud для автоматизации проектирования и оптимизации сложных конвейеров машинного обучения (ML). Используя веб-поиск, целенаправленное уточнение кода и надёжные модули проверки, MLE-STAR достигает беспрецедентной производительности в решении ряда задач машинного обучения — значительно превосходя предыдущие автономные агенты ML и … Читать далее

Исследователи из MIT разработали методы контроля чувствительности трансформеров с доказуемыми границами Липшица и мюонами

Обучение крупномасштабных трансформеров является сложной задачей в области глубокого обучения, особенно когда модели становятся больше и выразительнее. Исследователи из MIT решают эту проблему на корню: нестабильный рост активаций и всплески потерь, вызванные неограниченными нормами весов и активаций. Их решение — обеспечить доказуемые границы Липшица для трансформера путём спектральной регуляции весов — без использования нормализации активаций, … Читать далее

Как использовать пакет SHAP-IQ для выявления и визуализации взаимодействий признаков в моделях машинного обучения с помощью индексов взаимодействия Шепли (SII)

В этом руководстве мы рассмотрим, как использовать пакет SHAP-IQ для выявления и визуализации взаимодействий признаков в моделях машинного обучения с помощью индексов взаимодействия Шепли (SII), основываясь на традиционных значениях Шепли. Значения Шепли отлично подходят для объяснения вклада отдельных признаков в моделях ИИ, но не учитывают взаимодействия между признаками. Индексы взаимодействия Шепли идут дальше, разделяя индивидуальные … Читать далее

Руководство по программированию для создания интеллектуальных мультиагентных систем с использованием шаблона PEER

В этом руководстве мы рассмотрим мощную мультиагентную систему, построенную на основе шаблона PEER: Plan, Execute, Express, Review (Планируй, Выполняй, Выражай, Проверяй). Мы запустим весь рабочий процесс в Google Colab/Notebook, интегрируя агентов с специализированными ролями и используя модель Google Gemini 1.5 Flash через бесплатный API-ключ. Установка необходимых библиотек Мы начнём с установки необходимых библиотек, включая agentUniverse … Читать далее

Встречайте Trackio: бесплатная библиотека-трекер экспериментов на Python с открытым исходным кодом

Отслеживание экспериментов — важная часть современных рабочих процессов в машинном обучении. Независимо от того, настраиваете ли вы гиперпараметры, отслеживаете обучающие метрики или сотрудничаете с коллегами, крайне важно иметь надёжные и гибкие инструменты, которые упрощают отслеживание экспериментов и делают его более информативным. Однако многие существующие решения для отслеживания экспериментов требуют сложной настройки, имеют лицензионные сборы или … Читать далее

Figma использует искусственный интеллект для трансформации цифрового дизайна.

Узнайте, как Figma меняет цифровой дизайн с помощью ИИ. Дэвид Коссник рассказывает, как такие инструменты, как Figma Make, дают возможность командам создавать прототипы, сотрудничать и работать с ИИ — преобразуя рабочие процессы как для дизайнеров, разработчиков, так и для неспециалистов в технических вопросах. 1. Какие возможности предоставляет Figma для работы с искусственным интеллектом? Figma использует … Читать далее

Команда разработчиков Falcon LLM выпускает технический отчёт о Falcon-H1: гибридная модель внимания и SSM, конкурирующая с моделями на 70 миллиардов параметров

Введение Серия Falcon-H1, разработанная Институтом технологических инноваций (TII), представляет собой значительный шаг вперёд в эволюции больших языковых моделей (LLM). Благодаря интеграции внимания на основе Transformer и моделей состояния пространства (SSM) на основе Mamba в гибридной параллельной конфигурации Falcon-H1 достигает исключительной производительности, эффективности использования памяти и масштабируемости. Модели Falcon-H1 представлены в различных размерах (от 0,5 миллиарда … Читать далее

Знакомьтесь: SmallThinker — семейство эффективных больших языковых моделей, изначально обученных для локального использования

На рынке генеративного искусственного интеллекта доминируют массивные языковые модели, разработанные для огромных мощностей облачных дата-центров. Эти модели, несмотря на свою мощь, затрудняют или делают невозможным для обычных пользователей частное и эффективное развёртывание продвинутого ИИ на локальных устройствах, таких как ноутбуки, смартфоны или встроенные системы. Вместо того чтобы сжимать облачные модели для использования на периферии — … Читать далее

Google AI представляет Test-Time Diffusion Deep Researcher (TTD-DR): диффузионную систему для продвинутых исследовательских агентов, вдохновлённую человеческим подходом

Агенты для глубоких исследований (Deep Research, DR) быстро завоевали популярность как в научных кругах, так и в промышленности благодаря недавнему прогрессу в области больших языковых моделей (LLM). Однако большинство популярных публичных агентов DR не учитывают особенности человеческого мышления и процесса написания. Им часто не хватает структурированных шагов, которые поддерживают исследователей-людей, таких как составление черновиков, поиск … Читать далее

TransEvalnia: система оценки качества перевода на основе подсказок для языковых моделей

Системы перевода, основанные на языковых моделях (LLM), достигли такого уровня развития, что в некоторых случаях могут превзойти переводчиков-людей. По мере совершенствования LLM, особенно в сложных задачах, таких как перевод документов или литературный перевод, становится всё сложнее добиваться дальнейшего прогресса и точно оценивать этот прогресс. Традиционные автоматизированные метрики и их ограничения Традиционные автоматизированные метрики, такие как … Читать далее

Руководство по созданию интеллектуального диалогового агента ИИ с памятью агента с использованием Cognee и бесплатных моделей Hugging Face

В этом руководстве мы рассмотрим создание продвинутого ИИ-агента с памятью агента, используя модели Cognee и Hugging Face. Мы будем использовать полностью бесплатные инструменты с открытым исходным кодом, которые без проблем работают в Google Colab и других ноутбуках. Мы настроим Cognee для хранения и извлечения данных, интегрируем облегчённую модель для генерации ответов и объединим всё это … Читать далее

AgentSociety: фреймворк с открытым исходным кодом для моделирования крупномасштабных социальных взаимодействий с помощью агентов на базе больших языковых моделей

AgentSociety — это передовой фреймворк с открытым исходным кодом, предназначенный для моделирования больших популяций агентов, каждый из которых работает на базе больших языковых моделей (LLM), чтобы реалистично воспроизвести сложные взаимодействия, характерные для человеческих обществ. Используя мощные технологии распределённой обработки, особенно Ray, этот проект обеспечивает симуляции с участием десятков тысяч одновременно активных агентов, каждый из которых … Читать далее

Полное руководство по бенчмаркам и метрикам производительности для больших языковых моделей в программировании, 2025 год

Большие языковые модели (БЯМ), специализирующиеся на программировании, стали неотъемлемой частью разработки программного обеспечения. Они повышают производительность за счёт генерации кода, исправления ошибок, создания документации и рефакторинга. Острая конкуренция между коммерческими моделями и моделями с открытым исходным кодом привела к быстрому развитию, а также к появлению множества бенчмарков, предназначенных для объективной оценки производительности кодирования и полезности … Читать далее

Лучшие локальные большие языковые модели для кодирования (2025)

Большие языковые модели (LLM) для кодирования стали весьма функциональными, позволяя разработчикам работать с передовыми инструментами для генерации кода и помощи в написании кода полностью офлайн. В этой статье представлен обзор лучших локальных LLM для кодирования по состоянию на середину 2025 года, выделены ключевые особенности моделей и обсуждены инструменты, упрощающие локальное развёртывание. Почему стоит выбрать локальную … Читать далее