Парадокс искусственного интеллекта и энергетики

Стремительный рост вычислительных центров, работающих на базе искусственного интеллекта (ИИ), создаёт беспрецедентный всплех спроса на электроэнергию, который угрожает перегрузить электросети и сорвать достижение климатических целей. В то же время технологии искусственного интеллекта могут революционизировать энергетические системы, ускоряя переход к чистой энергетике. Уильям Х. Грин, директор MIT Energy Initiative (MITEI) и профессор химического машиностроения Массачусетского технологического … Читать далее

Исследователи Baidu предлагают парадигму поиска на основе ИИ: мультиагентная система для более интеллектуального поиска информации

Необходимость когнитивных и адаптивных поисковых систем Современные поисковые системы быстро развиваются, поскольку растёт спрос на контекстно-зависимый и адаптивный поиск информации. С увеличением объёма и сложности пользовательских запросов, особенно тех, которые требуют многоуровневого анализа, системы больше не ограничиваются простым сопоставлением ключевых слов или ранжированием документов. Вместо этого они стремятся имитировать когнитивное поведение, которое демонстрируют люди при … Читать далее

Персонализированные агенты без необходимости написания кода, работающие на базе GPT-4.1 и Realtime API.

Узнайте, как компания Genspark создала продукт в сфере искусственного интеллекта с ежемесячной выручкой в 36 миллионов долларов за 45 дней — используя агентов без необходимости написания кода, работающих на базе GPT-4.1 и OpenAI Realtime API. 1. Какие технологии лежат в основе продукта компании Genspark? * В основе продукта компании Genspark лежат персонализированные агенты, работающие на … Читать далее

Baidu открывает исходный код ERNIE 4.5: серия LLM с масштабированием от 0,3 млрд до 424 млрд параметров

Компания Baidu официально открыла исходный код своей новейшей серии ERNIE 4.5 — мощного семейства базовых моделей, разработанных для улучшения понимания языка, рассуждений и генерации текста. Основные характеристики: * В релиз включены десять вариантов моделей — от компактных плотных моделей 0,3 млрд параметров до массивных архитектур Mixture-of-Experts (MoE) с общим количеством параметров до 424 млрд.* Модели … Читать далее

OMEGA: структурированный математический бенчмарк для исследования пределов рассуждений больших языковых моделей

Введение в обобщение в математических рассуждениях Крупномасштабные языковые модели с длинными цепочками рассуждений (CoT), такие как DeepSeek-R1, показали хорошие результаты в решении математических задач олимпиадного уровня. Однако модели, обученные с помощью контролируемой точной настройки (Supervised Fine-Tuning) или обучения с подкреплением (Reinforcement Learning), зависят от ограниченных методов, таких как повторение известных правил алгебры или использование координатной … Читать далее

Создание продвинутых мультиагентных рабочих процессов ИИ с помощью AutoGen и Semantic Kernel

В этом руководстве мы покажем вам, как легко интегрировать AutoGen и Semantic Kernel с моделью Google Gemini Flash. Шаг 1: настройка GeminiWrapper и SemanticKernelGeminiPlugin Мы начинаем с настройки классов GeminiWrapper и SemanticKernelGeminiPlugin, чтобы связать генеративные возможности Gemini с мультиагентной оркестрацией AutoGen. Шаг 2: настройка специализированных агентов Затем мы настраиваем специализированных агентов, от рецензентов кода до … Читать далее

TabArena: сравнительный анализ табличного машинного обучения с воспроизводимостью и ансамблированием в масштабе

Понимание важности сравнительного анализа в табличном ML Машинное обучение на табличных данных сосредоточено на создании моделей, которые выявляют закономерности в структурированных наборах данных, обычно состоящих из строк и столбцов, подобных тем, что встречаются в электронных таблицах. Эти наборы данных используются в различных отраслях, от здравоохранения до финансов, где точность и интерпретируемость имеют решающее значение. Для … Читать далее

LongWriter-Zero: система подкрепляющего обучения для генерации сверхдлинных текстов без использования синтетических данных

Введение в задачи генерации сверхдлинных текстов Создание сверхдлинных текстов, насчитывающих тысячи слов, становится всё более актуальным для решения реальных задач, таких как написание рассказов, юридических текстов и образовательных материалов. Однако большие языковые модели всё ещё сталкиваются с серьёзными проблемами, включая ограничения по длине и качество вывода, особенно при увеличении объёма текста. Распространённые проблемы включают:* несогласованность;* … Читать далее

Ускорение научных открытий с помощью ИИ

Несколько исследователей, рассмотрев прогресс в науке за последние 50 лет, пришли к тревожному выводу: научная продуктивность снижается. Для совершения открытий, которые раньше делались быстрее и дешевле, теперь требуется больше времени, финансирования и работы больших коллективов. Одним из объяснений замедления является то, что по мере усложнения и специализации исследований учёные тратят всё больше времени на просмотр … Читать далее

ИИ в Австралии — экономический план OpenAI

Сегодня компания OpenAI в партнёрстве с Mandala Partners представляет экономический план OpenAI для Австралии. В период, когда повышение производительности стало национальным приоритетом для Австралии, план предлагает чёткий и реализуемый путь к раскрытию полного экономического и социального потенциала искусственного интеллекта. #OpenAI #экономический_план #Австралия 1. Какова цель экономического плана OpenAI для Австралии? Ответ: цель экономического плана OpenAI … Читать далее

MDM-Prime: обобщённая структура Masked Diffusion Models (MDMs), которая позволяет частично нескрытые токены во время выборки

Введение в MDMs и их неэффективность Masked Diffusion Models (MDMs) — это мощные инструменты для генерации дискретных данных, таких как текст или символьные последовательности, путём постепенного раскрытия токенов. На каждом шаге токены либо маскируются, либо раскрываются. Однако было замечено, что многие шаги в обратном процессе не изменяют последовательность, что приводит к повторной обработке идентичных входных … Читать далее

DSRL: подход к обучению с подкреплением в латентном пространстве для адаптации стратегий диффузии в робототехнике реального мира

Введение в робототехнику, основанную на обучении Системы управления роботами значительно продвинулись вперёд благодаря методам, которые заменяют инструкции, написанные вручную, обучением на основе данных. Вместо того чтобы полагаться на явное программирование, современные роботы учатся, наблюдая за действиями и подражая им. Эта форма обучения, часто основанная на поведенческом клонировании, позволяет роботам эффективно функционировать в структурированных средах. Однако … Читать далее

Исследователи из Мичиганского университета предложили G-ACT: масштабируемую систему машинного обучения для управления предвзятостью языков программирования в больших языковых моделях

Необходимость контроля научного кода в больших языковых моделях (LLMs) Большие языковые модели (LLMs) быстро превратились в сложные процессоры естественного языка, что позволило разработать агентские системы для управления сложными рабочими процессами. Однако использование агентов LLM для генерации научного кода пока не изучено. Научный софт в основном зависит от C++, CUDA и других низкоуровневых языков, которые недостаточно … Читать далее

Руководство по программированию для создания функционального рабочего процесса анализа данных с помощью Lilac для преобразования, фильтрации и экспорта структурированных инсайтов

В этом руководстве мы демонстрируем полностью функциональный и модульный рабочий процесс анализа данных, используя библиотеку Lilac, не полагаясь на обработку сигналов. Оно сочетает возможности управления наборами данных Lilac с парадигмой функционального программирования Python для создания чистого, расширяемого рабочего процесса. Установка необходимых библиотек Для начала установим необходимые библиотеки с помощью команды `!pip install lilac[all] pandas numpy`. … Читать далее

Исследователи из Университета Калифорнии в Сан-Диего представили Dex1B: датасет для манипулирования руками в робототехнике размером в миллиард элементов

Проблемы сбора данных для манипулирования руками Создание масштабных данных для манипулирования руками остаётся серьёзной задачей в робототехнике. Хотя руки предлагают большую гибкость и более широкие возможности манипулирования по сравнению с более простыми инструментами, такими как захваты, их сложность затрудняет эффективное управление. Многие специалисты задаются вопросом, стоят ли манипуляционные руки дополнительных сложностей. Однако проблема может заключаться … Читать далее

Создание индивидуальных инструментов искусственного интеллекта для ваших AI-агентов, сочетающих машинное обучение и статистический анализ

Возможность создания индивидуальных инструментов имеет решающее значение для разработки настраиваемых AI-агентов. В этом руководстве мы покажем, как создать мощный и интеллектуальный инструмент для анализа данных на Python, который можно интегрировать в AI-агентов на базе LangChain. Установка необходимых пакетов Для начала установим необходимые пакеты Python для анализа данных, визуализации, машинного обучения и разработки инструментов LangChain: `!pip … Читать далее

DeepRare: первая диагностическая система на основе искусственного интеллекта, преобразующая процесс принятия клинических решений при лечении редких заболеваний

Редкие заболевания затрагивают около 400 миллионов человек по всему миру, включая более 7 тысяч отдельных расстройств, большинство из которых (около 80%) имеют генетическую природу. Несмотря на их распространённость, диагностика редких заболеваний чрезвычайно сложна. Пациенты уже сталкиваются с длительными процессами диагностики, которые в среднем занимают более пяти лет, часто приводя к последовательным ошибочным диагнозам и инвазивным … Читать далее

Tencent открывает исходный код Hunyuan-A13B: модель MoE с 13 миллиардами активных параметров, двойным режимом рассуждений и контекстом в 256 тысяч

Команда Hunyuan от Tencent представила Hunyuan-A13B — новую большую языковую модель с открытым исходным кодом, построенную на разрежённой архитектуре Mixture-of-Experts (MoE). Основные характеристики модели Параметры: модель состоит из 80 миллиардов параметров, но во время логического вывода активны только 13 миллиардов. Архитектура: Hunyuan-A13B использует 1 общего эксперта и 64 независимых эксперта, при этом во время прямого … Читать далее

Начало работы с Gemini Command Line Interface (CLI)

Google недавно выпустила Gemini CLI — мощный инструмент командной строки, предназначенный для оптимизации рабочих процессов разработчиков с помощью искусственного интеллекта. Независимо от того, работаете ли вы с огромными базами кода, автоматизируете рутинные задачи или создаёте новые приложения по эскизам и PDF-файлам, Gemini CLI предоставляет мультимодальный интеллект прямо в вашем терминале. С помощью Gemini CLI вы … Читать далее

Команда Alibaba Qwen выпустила Qwen-VLo: унифицированная модель для понимания и генерации мультимодальных данных

Команда Alibaba Qwen представила Qwen-VLo — новое дополнение к семейству моделей Qwen. Эта модель объединяет возможности понимания и генерации мультимодальных данных в рамках единой системы. Qwen-VLo позиционируется как мощный инструмент для творчества, позволяющий пользователям создавать, редактировать и совершенствовать высококачественный визуальный контент на основе текста, эскизов и команд — на разных языках и посредством пошагового построения … Читать далее

Начало работы с MLflow для оценки больших языковых моделей

MLflow — это мощная платформа с открытым исходным кодом для управления жизненным циклом машинного обучения. Традиционно её используют для отслеживания экспериментов с моделями, регистрации параметров и управления развёртыванием. Недавно MLflow внедрила поддержку для оценки больших языковых моделей (LLM). В этом руководстве мы рассмотрим, как использовать MLflow для оценки производительности LLM (в нашем случае — модели … Читать далее

Unbabel представляет TOWER+: унифицированная система для высококачественного перевода и выполнения инструкций в многоязычных больших языковых моделях

Большие языковые модели (LLMs) способствуют прогрессу в машинном переводе, используя огромные обучающие корпуса для перевода десятков языков и диалектов, улавливая при этом тонкие лингвистические нюансы. Однако настройка этих моделей для повышения точности перевода часто ухудшает их способность следовать инструкциям и вести диалог, а универсальные версии с трудом соответствуют профессиональным стандартам точности. Текущие подходы к настройке … Читать далее

MIT и Mass General Brigham запускают совместную программу для ускорения инноваций в здравоохранении

Массачусетский технологический институт (MIT) и Mass General Brigham (MGB) объявили о запуске совместной программы MIT-MGB Seed Program. Эта инициатива, поддержанная компанией Analog Devices Inc. (ADI), будет финансировать совместные исследовательские проекты под руководством учёных из MIT и Mass General Brigham. Цели программы Совместные проекты продвинут исследования в области здоровья человека с целью разработки терапий, диагностических инструментов … Читать далее

Polaris-4B и Polaris-7B: дообучение с подкреплением для эффективного решения математических и логических задач

Растущая потребность в масштабируемых моделях рассуждений в машинном интеллекте Современные модели рассуждений находятся на переднем крае машинного интеллекта, особенно в таких областях, как решение математических задач и символические рассуждения. Эти модели предназначены для выполнения многошаговых вычислений и логических выводов, часто генерируя решения, которые отражают процессы человеческого мышления. Для повышения точности после предварительного обучения используются методы … Читать далее

GURU: система подкрепляющего обучения, объединяющая возможности рассуждений LLM в шести областях

Ограничения подкрепляющего обучения в узких областях рассуждений Подкрепляющее обучение (RL) продемонстрировало большой потенциал для улучшения способностей LLM к рассуждению, особенно в ведущих системах, таких как OpenAI-O3 и DeepSeek-R1. Однако большинство исследований RL сосредоточено на математике и коде, что ограничивает его общую применимость. Этот узкий охват создаёт две проблемы:* наше понимание того, как RL улучшает рассуждение, … Читать далее

Создание мощного многофункционального ИИ-агента с помощью Nebius, Llama 3 и инструментов для рассуждений в реальном времени

В этом руководстве мы представляем продвинутого ИИ-агента, созданного с использованием надёжной экосистемы Nebius, особенно компонентов ChatNebius, NebiusEmbeddings и NebiusRetriever. Агент использует модель Llama-3.3-70B-Instruct-fast для генерации высококачественных ответов, включая внешние функции, такие как поиск в Википедии, контекстуальный поиск документов и безопасные математические вычисления. Установка необходимых библиотек Для начала установим основные библиотеки, включая langchain-nebius, langchain-core, langchain-community и … Читать далее

Google выпускает компактную мультимодальную модель Gemma 3n для периферийных устройств

Компания Google представила Gemma 3n — новую модель в семействе открытых моделей, которая призвана обеспечить широкие возможности искусственного интеллекта на периферийных устройствах. Модель разработана с учётом особенностей мобильных устройств и может обрабатывать текст, изображения, аудио и видео на устройстве, не полагаясь на облачные вычисления. Такая архитектура представляет собой значительный шаг вперёд в области обеспечения конфиденциальности … Читать далее

Inception Labs представляет Mercury: языковая модель на основе диффузии для сверхбыстрой генерации кода

Генеративный искусственный интеллект и его задачи в авторегрессионной генерации кода Область генеративного искусственного интеллекта существенно повлияла на разработку программного обеспечения, автоматизировав различные задачи кодирования — от простых автозавершений до сложных программных решений. Однако традиционные языковые модели преимущественно используют авторегрессивные методы, предсказывая по одному токену за раз, что приводит к внутренним узким местам и проблемам с … Читать далее

Адаптивная автоматизация голосовых агентов без использования кода с помощью GPT-4o.

Retell AI меняет сферу call-центров с помощью голосовой автоматизации на базе искусственного интеллекта, в основе которой лежат модели GPT-4o и GPT-4.1. Их платформа без использования кода позволяет компаниям запускать естественных голосовых агентов, работающих в режиме реального времени. Это снижает расходы на звонки, повышает уровень удовлетворённости клиентов (CSAT) и автоматизирует общение с клиентами — без скриптов … Читать далее

Google DeepMind представляет AlphaGenome: модель глубокого обучения для комплексного прогнозирования влияния отдельных вариантов или мутаций в ДНК

Единая модель глубокого обучения для понимания генома Google DeepMind представила AlphaGenome — новую систему глубокого обучения, предназначенную для прогнозирования регуляторных последствий вариаций последовательностей ДНК в широком спектре биологических модальностей. AlphaGenome отличается тем, что принимает длинные последовательности ДНК — до 1 мегабазы — и выдаёт прогнозы с высоким разрешением, такие как события сплайсинга на уровне оснований, … Читать далее