Компания Google Research выпустила TimesFM-2.5 — модель для прогнозирования временных рядов с 200 миллионами параметров, которая поддерживает только декодер, имеет длину контекста 16К и встроенную вероятностную поддержку прогнозирования. Новая контрольная точка доступна на Hugging Face. В GIFT-Eval TimesFM-2.5 занимает первое место в рейтинге по точности (MASE, CRPS) среди моделей нулевого выстрела.
Что такое прогнозирование временных рядов?
Прогнозирование временных рядов — это анализ последовательных точек данных, собранных в течение времени, для выявления закономерностей и прогнозирования будущих значений. Оно лежит в основе критически важных приложений в различных отраслях, включая прогнозирование спроса на продукцию в розничной торговле, мониторинг погодных условий и тенденций осадков, а также оптимизацию крупномасштабных систем, таких как цепочки поставок и энергетические сети.
Прогнозирование временных рядов позволяет принимать решения на основе данных в динамических средах, фиксируя временные зависимости и сезонные колебания.
Что изменилось в TimesFM-2.5 по сравнению с версией 2.0?
* Параметры: 200 млн (по сравнению с 500 млн в версии 2.0).
* Максимальный контекст: 16 384 точек (по сравнению с 2 048).
* Квантили: дополнительная 30-миллионная квантильная головка для непрерывных квантильных прогнозов до горизонта в 1 тыс.
* Входные данные: не требуется индикатор «частоты»; новые флаги логического вывода (инвариантность переворота, логический вывод положительности, исправление пересечения квантилей).
* Перспективы: предстоящая реализация Flax для ускорения логического вывода; запланирована поддержка ковариат; расширение документации.
Почему важен более длинный контекст?
16 тыс. исторических точек позволяют одному прямому проходу фиксировать многосезонную структуру, разрывы режимов и низкочастотные компоненты без разбивки на фрагменты или иерархического сшивания. На практике это сокращает эвристики предварительной обработки и повышает стабильность для доменов, где контекст >> горизонт (например, энергонагрузка, розничный спрос). Удлинение контекста — это ключевое изменение в дизайне, специально отмеченное для версии 2.5.
Каков исследовательский контекст?
Основная идея TimesFM — единая модель прогнозирования на основе декодера — была представлена в статье ICML 2024 и в блоге Google Research. GIFT-Eval (Salesforce) появился для стандартизации оценки по доменам, частотам, длине горизонта и одномерным/многомерным режимам с общедоступным рейтингом, размещённым на Hugging Face.
Ключевые выводы
* Компактная и быстрая модель: TimesFM-2.5 работает с 200 млн параметров (половина размера версии 2.0), при этом повышая точность.
* Более длинный контекст: поддерживает длину входных данных 16 тыс., что позволяет делать прогнозы с более глубоким историческим охватом.
* Лидер по бенчмарку: сейчас занимает первое место среди моделей нулевого выстрела в GIFT-Eval как по точности (MASE), так и по вероятностной точности (CRPS).
* Подходит для производства: эффективная конструкция и поддержка квантильного прогнозирования делают модель пригодной для использования в реальных условиях в различных отраслях.
* Широкая доступность: модель доступна на Hugging Face.
Резюме
TimesFM-2.5 показывает, что модели прогнозирования на основе фундаментальных исследований превращаются из концепций доказательства в практические инструменты, готовые к использованию в производстве. Сокращая количество параметров вдвое при одновременном увеличении длины контекста и лидируя в GIFT-Eval по точности как в точечном, так и в вероятностном прогнозировании, модель знаменует собой шаг вперёд в эффективности и возможностях.
С уже доступным доступом к Hugging Face и планируемой интеграцией с BigQuery/Model Garden модель позиционируется для ускорения внедрения прогнозирования временных рядов нулевого выстрела в реальных рабочих процессах.
Ознакомьтесь с карточкой модели (HF), репозиторием, бенчмарком и статьёй. Не стесняйтесь посетить нашу страницу на GitHub, чтобы найти учебные пособия, коды и блокноты. Также подписывайтесь на нас в Twitter и присоединяйтесь к нашему сообществу в SubReddit (более 100 тыс. участников машинного обучения) и подписывайтесь на нашу рассылку.
1. Какие основные характеристики модели TimesFM-2.5, отличающие её от предыдущей версии 2.0?
Основные характеристики модели TimesFM-2.5, отличающие её от предыдущей версии 2.0:
* количество параметров сократилось с 500 млн до 200 млн;
* максимальный контекст увеличен до 16 384 точек (по сравнению с 2 048 в версии 2.0);
* добавлена 30-миллионная квантильная головка для непрерывных квантильных прогнозов до горизонта в 1 тыс.;
* не требуется индикатор «частоты» для входных данных;
* новые флаги логического вывода (инвариантность переворота, логический вывод положительности, исправление пересечения квантилей).
2. Почему более длинный контекст важен для прогнозирования временных рядов?
Более длинный контекст важен для прогнозирования временных рядов, поскольку он позволяет фиксировать многосезонную структуру, разрывы режимов и низкочастотные компоненты без разбивки на фрагменты или иерархического сшивания. Это сокращает эвристики предварительной обработки и повышает стабильность для доменов, где контекст значительно превышает горизонт (например, энергонагрузка, розничный спрос).
3. Какие преимущества предлагает модель TimesFM-2.5 для использования в реальных условиях?
Модель TimesFM-2.5 предлагает следующие преимущества для использования в реальных условиях:
* компактная и быстрая модель с 200 млн параметров;
* более длинный контекст, поддерживающий длину входных данных до 16 тыс.;
* лидерство по бенчмарку GIFT-Eval как по точности (MASE), так и по вероятностной точности (CRPS);
* поддержка квантильного прогнозирования;
* широкая доступность на Hugging Face.
4. Какие перспективы развития модели TimesFM-2.5 указаны в статье?
В статье указаны следующие перспективы развития модели TimesFM-2.5:
* реализация Flax для ускорения логического вывода;
* поддержка ковариат;
* расширение документации.
5. Где можно ознакомиться с моделью TimesFM-2.5 и её характеристиками?
С моделью TimesFM-2.5 и её характеристиками можно ознакомиться на Hugging Face, в репозитории, на бенчмарке GIFT-Eval и в статье, представленной в блоге Google Research. Также можно посетить страницу на GitHub, где доступны учебные пособия, коды и блокноты.