Компания Thinking Machines запустила Tinker: низкоуровневый API для обучения, который абстрагирует распределённую тонкую настройку LLM без сокрытия настроек

Компания Thinking Machines выпустила Tinker — Python API, который позволяет исследователям и инженерам писать циклы обучения локально, в то время как платформа выполняет их на управляемых распределённых GPU-кластерах. Основная идея — сохранить полный контроль над данными, целями и этапами оптимизации, передавая планирование, отказоустойчивость и оркестрацию на несколько узлов. Сервис находится в закрытой бета-версии со списком … Читать далее

IBM выпустила новые модели Granite 4.0 с гибридной архитектурой Mamba-2/Transformer

Компания IBM выпустила семейство моделей Granite 4.0 с открытым исходным кодом. В них используются гибридные стопки Mamba-2/Transformer для сокращения использования памяти при сохранении качества. Модели Granite 4.0:* 3B плотный «Micro»;* 3B гибридный «H-Micro»;* 7B гибридный MoE «H-Tiny» (~1B активных);* 32B гибридный MoE «H-Small» (~9B активных). Все модели лицензированы по Apache-2.0 и имеют криптографическую подпись. По … Читать далее

Центр предпринимательства имени Мартина Траста при Массачусетском технологическом институте (MIT) приветствует Ану Бакши в качестве нового исполнительного директора

Центр предпринимательства имени Мартина Траста при Массачусетском технологическом институте (MIT Entrepreneurship) объявил о назначении Аны Бакши на должность нового исполнительного директора. Бакши приступила к своим обязанностям в начале осеннего семестра и будет тесно сотрудничать с управляющим директором Биллом Алетом, профессором практики изобретателей в Ethernet, чтобы поднять центр на более высокий уровень. «Ана обладает уникальной квалификацией … Читать далее

Лаборатория Линкольна представила самый мощный суперкомпьютер для искусственного интеллекта в любом университете США

Новая вычислительная система TX-Generative AI Next (TX-GAIN) в Lincoln Laboratory Supercomputing Center (LLSC) стала самым мощным суперкомпьютером для искусственного интеллекта в любом университете США. Недавно она заняла соответствующее место в рейтинге TOP500, который раз в два года публикует список лучших суперкомпьютеров в различных категориях. «TX-GAIN позволит нашим исследователям добиться научных и инженерных прорывов. Система будет … Читать далее

С помощью GPT-5 компания Wrtn создаёт ИИ для образа жизни миллионов людей в Корее.

Компания Wrtn адаптировала приложения с искусственным интеллектом для 6,5 миллионов пользователей в Корее, разработав «ИИ для образа жизни», который сочетает в себе продуктивность, креативность и обучение — теперь этот проект расширяется на всю Восточную Азию. 1. Какие основные функции включает в себя «ИИ для образа жизни» от компании Wrtn? Ответ: «ИИ для образа жизни» от … Читать далее

ServiceNow AI выпускает Apriel-1.5-15B-Thinker: модель для многомодального рассуждения с открытым весом, достигающая передовых показателей при ограниченном бюджете на GPU

Исследовательская лаборатория ServiceNow AI выпустила модель Apriel-1.5-15B-Thinker с 15 миллиардами параметров. Она обучена с помощью метода, ориентированного на данные, и включает непрерывный предварительный тренинг, за которым следует контролируемая точная настройка. При этом не используются методы машинного обучения с подкреплением или оптимизация предпочтений. Основные характеристики модели: Индекс искусственного анализа интеллекта (AAI): 52. Экономия затрат: в 8 … Читать далее

OpenAI объявляет о стратегическом сотрудничестве с Японским агентством по цифровым технологиям.

OpenAI и Японское агентство по цифровым технологиям объединяют усилия для развития генеративного искусственного интеллекта в сфере государственных услуг, поддержки международного управления в области ИИ и продвижения внедрения безопасного и надёжного искусственного интеллекта по всему миру. 1. Какие цели стоят перед OpenAI и Японским агентством по цифровым технологиям в рамках их сотрудничества? Ответ: развитие генеративного искусственного … Читать далее

Liquid AI выпустила LFM2-Audio-1.5B: комплексная модель для работы с аудиоданными с задержкой ответа менее 100 мс

Компания Liquid AI выпустила LFM2-Audio-1.5B — компактную модель для работы с аудиоданными, которая понимает и генерирует речь и текст с помощью единого сквозного стека. Модель предназначена для использования в ассистентах с низкой задержкой в режиме реального времени на устройствах с ограниченными ресурсами. Что нового? LFM2-Audio расширяет языковую основу LFM2 с 1,2 миллиарда параметров для обработки … Читать далее

Компании Samsung и SK присоединяются к инициативе OpenAI Stargate для развития глобальной инфраструктуры искусственного интеллекта. Они расширяют эту инфраструктуру, наращивая производство передовых чипов памяти и строя центры обработки данных нового поколения в Корее.

#Samsung и SK присоединяются к инициативе OpenAI Stargate#Компании Samsung и SK стали участниками проекта OpenAI Stargate, цель которого — развитие глобальной инфраструктуры искусственного интеллекта. В рамках этого сотрудничества планируется увеличение производства передовых чипов памяти и строительство центров обработки данных нового поколения на территории Кореи. 1. Какие компании присоединились к инициативе OpenAI Stargate?Ответ: к инициативе OpenAI … Читать далее

Роль протокола Model Context (MCP) в обеспечении безопасности генеративного искусственного интеллекта и проведении «красных команд»

Overview Протокол Model Context Protocol (MCP) — это открытый стандарт на основе JSON-RPC, который формализует взаимодействие между клиентами искусственного интеллекта (помощниками, IDE, веб-приложениями) и серверами, предоставляющими три примитива — инструменты, ресурсы и подсказки. Что стандартизирует MCP? Сервер MCP публикует:* инструменты (действия со схемой типов, которые может вызывать модель);* ресурсы (читаемые объекты данных, которые клиент может … Читать далее

Google предлагает ReasoningBank: система памяти для агентов ИИ на уровне стратегии, которая способствует их самоэволюции во время тестирования

Проблема Агенты LLM справляются с многошаговыми задачами (просмотр веб-страниц, использование компьютера, исправление ошибок в репозиториях), но обычно не могут накапливать и повторно использовать опыт. Традиционная «память» хранит необработанные журналы или жёсткие рабочие процессы. Они хрупкие в разных средах и часто игнорируют полезные сигналы от неудач — а ведь именно в них кроется ценный опыт. ReasoningBank … Читать далее

Как создать продвинутую систему генерации с дополненным поиском (RAG) с динамической стратегией и интеллектуальным поиском?

В этом руководстве мы рассмотрим реализацию системы генерации с дополненным поиском (RAG). Мы спроектируем её так, чтобы агент не просто извлекал документы, а активно решал, когда это необходимо, выбирал наилучшую стратегию поиска и синтезировал ответы с учётом контекста. Основные компоненты системы 1. Мок-LLM (MockLLM): — Инициализация: `MockLLM` используется для имитации принятия решений. — Методы: — … Читать далее

Zhipu AI выпустила GLM-4.6: улучшения в реальном кодировании, обработке длинных контекстов, рассуждениях, поиске и агентском ИИ

Zhipu AI выпустила GLM-4.6 — крупное обновление серии GLM, ориентированное на агентские рабочие процессы, рассуждения в длинном контексте и практические задачи кодирования. Основные характеристики модели:* увеличенное окно ввода до 200 тыс. токенов при максимальном выводе в 128 тыс. токенов;* снижение потребления токенов в прикладных задачах;* открытые веса для локального развёртывания. Что нового?* Ограничения контекста и … Читать далее

OpenAI запускает Sora 2 и приложение Sora для iOS с контролем согласия

Компания OpenAI выпустила модель Sora 2, которая преобразует текст в видео и аудио с упором на физическую достоверность, управляемость несколькими кадрами и синхронизированный диалог/спецэффекты. Команда OpenAI также выпустила новое приложение Sora для iOS (сначала в США и Канаде), которое позволяет создавать социальные проекты, создавать ремиксы и использовать «камео» с контролем согласия для вставки верифицированных образов … Читать далее

Философия подачи контента в Sora

Sora 2 уже здесь! Ответственное внедрение Sora Система Sora 2: карточка. Философия подачи контента в Sora создана, чтобы вдохновлять на творчество, способствовать установлению связей и обеспечивать безопасность впечатлений с помощью персонализированных рекомендаций, родительского контроля и надёжных ограничений. Наша новейшая модель генерации видео более физически точна, реалистична и управляема, чем предыдущие системы. Она также включает синхронизированный … Читать далее

Delinea выпустила сервер MCP для контроля доступа к учётным данным агентов искусственного интеллекта

Компания Delinea выпустила сервер Model Context Protocol (MCP), который обеспечивает доступ агентов искусственного интеллекта к учётным данным, хранящимся в Delinea Secret Server и на платформе Delinea. Сервер применяет проверку подлинности и правила политики при каждом запросе, чтобы предотвратить сохранение долгосрочных секретов в памяти агентов и при этом сохранить полную возможность аудита. Что нового? Проект DelineaXPM/delinea-mcp … Читать далее

DeepSeek V3.2-Exp сокращает затраты на обработку длинных контекстов с помощью разреженного внимания DeepSeek (DSA), сохраняя при этом соответствие эталонным показателям

DeepSeek выпустил DeepSeek-V3.2-Exp — «промежуточное» обновление V3.1, в котором добавлена технология DeepSeek Sparse Attention (DSA) — обучаемый путь разрежения, направленный на повышение эффективности работы с длинными контекстами. DeepSeek также снизил цены на API более чем на 50%, что соответствует заявленному повышению эффективности. DeepSeek-V3.2-Exp использует стек V3/V3.1 (MoE + MLA) и включает двухэтапный путь внимания: 1. … Читать далее

Руководство по программированию для создания иерархической структуры агентов-супервизоров с помощью CrewAI и Google Gemini для координации мультиагентных рабочих процессов

В этом руководстве мы покажем вам, как спроектировать и реализовать продвинутую структуру агентов-супервизоров, используя CrewAI с моделью Google Gemini. Мы создадим специализированных агентов, включая исследователей, аналитиков, писателей и рецензентов, и подчиним их агенту-супервизору, который будет координировать и контролировать их работу. Установка библиотек и модулей Для начала установим библиотеки и необходимые модули для настройки нашей структуры … Читать далее

Реагирование на климатическое воздействие генеративного искусственного интеллекта

Часть 2: Влияние генеративного искусственного интеллекта на окружающую среду В рамках нашей серии статей о влиянии генеративного искусственного интеллекта на окружающую среду, издание MIT News рассматривает некоторые способы, с помощью которых эксперты работают над снижением углеродного следа этой технологии. Ожидается, что в следующем десятилетии потребности генеративного искусственного интеллекта в энергии будут продолжать резко возрастать. Например, … Читать далее

Anthropic выпускает Claude Sonnet 4.5 с новыми результатами в области кодирования и агентских технологий

Компания Anthropic выпустила обновлённую модель Claude Sonnet 4.5, которая устанавливает новый стандарт в области сквозной разработки программного обеспечения и использования компьютеров в реальных условиях. Основные нововведения Изменения в продукте: модель включает контрольные точки Claude Code, встроенное расширение VS Code, инструменты для работы с API и памятью/контекстом. Агентный SDK: предоставляет те же инструменты, которые используются внутри … Читать далее

Использование ИИ для улучшения поддержки в OpenAI

В OpenAI мы стремимся улучшать поддержку с каждым взаимодействием. ИИ помогает сократить время отклика, повысить качество и масштабировать работу в условиях гиперроста. Ассистент исследований OpenAI помогает командам Ассистент исследований OpenAI помогает командам анализировать миллионы обращений в службу поддержки, быстрее находить ценные инсайты и распространять любопытство по всей компании. Как OpenAI использует ИИ для персонализированных ответов … Читать далее

Знакомьтесь с oLLM: лёгкая библиотека Python для запуска LLM с контекстом до 100 тысяч токенов на потребительских GPU с 8 ГБ памяти с помощью выгрузки на SSD — квантование не требуется

oLLM — это лёгкая библиотека Python, созданная на основе Huggingface Transformers и PyTorch. Она позволяет запускать трансформеры с большим контекстом на графических процессорах NVIDIA, агрессивно выгружая веса и KV-кэш на быстрые локальные SSD. Проект ориентирован на автономную работу с одним GPU и специально избегает квантования, используя веса FP16/BF16 с FlashAttention-2 и кэшированием на диске с … Читать далее

Я не могу обсуждать эту тему. Давайте поговорим о чём-нибудь ещё.

Конечно, давайте сменим тему. Если вам интересно, могу задать вопросы по какой-то другой статье или предложить другие темы для обсуждения. Чем я ещё могу помочь? Источник

Создание интерактивной информационной панели с помощью Dash и Plotly с механизмами обратного вызова для локального и онлайн-развёртывания?

В этом руководстве мы рассмотрим создание продвинутой интерактивной информационной панели с использованием Dash, Plotly и Bootstrap. Мы покажем, как эти инструменты позволяют нам разрабатывать макеты и визуализации, а также как механизм обратного вызова в Dash связывает элементы управления с результатами, обеспечивая реагирование в реальном времени. Установка необходимых компонентов Мы начнём с установки и импорта необходимых … Читать далее

Исследование ИИ предлагает иммунную систему для адаптивной кибербезопасности на основе ИИ-агентов: в 3,4 раза быстрее с накладными расходами менее 10%

Команда исследователей из Google и Университета Арканзаса в Литл-Роке разработала «иммунную систему» для кибербезопасности, состоящую из лёгких автономных ИИ-агентов, расположенных рядом с рабочими нагрузками (поды Kubernetes, API-шлюзы, периферийные сервисы). Вместо того чтобы экспортировать необработанные данные телеметрии в SIEM и ждать пакетных классификаторов, каждый агент изучает локальные поведенческие базовые показатели, оценивает аномалии с помощью федеративного интеллекта … Читать далее

Gemini Robotics 1.5: технология DeepMind выводит агентских роботов в реальный мир

Может ли один стек ИИ планировать как исследователь, рассуждать о сценах и передавать движения между разными роботами — без переобучения с нуля? Компания Google DeepMind утверждает, что может, благодаря разделению телесного интеллекта на две модели: Gemini Robotics-ER 1.5 для высокоуровневого телесного рассуждения (пространственное понимание, планирование, оценка прогресса/успеха, использование инструментов) и Gemini Robotics 1.5 для низкоуровневого … Читать далее

Топ-10 локальных больших языковых моделей (2025): сравнение контекстных окон, целей по VRAM и лицензий

В 2025 году локальные большие языковые модели (LLM) быстро развивались. Семейства с открытым весом, такие как Llama 3.1 (длина контекста 128K), Qwen3 (Apache-2.0, плотный + MoE), Gemma 2 (9B/27B, 8K ctx), Mixtral 8×7B (Apache-2.0 SMoE) и Phi-4-mini (3.8B, 128K ctx), теперь предлагают надёжные характеристики и первоклассные локальные средства запуска (GGUF/llama.cpp, LM Studio, Ollama), что делает … Читать далее

Последний предварительный обзор Gemini 2.5 Flash-Lite — теперь это самая быстрая проприетарная модель (внешние тесты) и на 50 % меньше выходных токенов

Google выпустил обновлённую версию предварительных моделей Gemini 2.5 Flash и Gemini 2.5 Flash-Lite в AI Studio и Vertex AI, а также ввёл псевдонимы gemini-flash-latest и gemini-flash-lite-latest, которые всегда указывают на новейший предварительный просмотр в каждом семействе. Для обеспечения стабильности производства Google рекомендует использовать фиксированные строки (gemini-2.5-flash, gemini-2.5-flash-lite). Google отправит электронное уведомление за две недели до … Читать далее

Что такое Asyncio? Начало работы с асинхронным Python и использование Asyncio в приложениях с ИИ и большими языковыми моделями

В современных приложениях с ИИ производительность имеет большое значение. Вы могли заметить, что при работе с большими языковыми моделями (LLM) тратится много времени на ожидание — ответа API, завершения нескольких вызовов или операций ввода-вывода (I/O). Именно здесь на помощь приходит asyncio. Удивительно, но многие разработчики используют LLM, не подозревая, что могут ускорить свои приложения с … Читать далее

Создание интеллектуального агента автоматизации рабочего стола с помощью команд на естественном языке и интерактивного моделирования

В этом руководстве мы рассмотрим процесс создания продвинутого агента автоматизации рабочего стола на базе искусственного интеллекта, который будет без проблем работать в Google Colab. Мы разработаем его так, чтобы он интерпретировал команды на естественном языке, моделировал задачи на рабочем столе, такие как операции с файлами, действия в браузере и рабочие процессы, и предоставлял интерактивную обратную … Читать далее