Каждый раз, когда вы задаёте вопрос искусственному интеллекту, возникают неожиданные расходы: выбросы углекислого газа.
Прежде чем ИИ вроде ChatGPT сможет ответить, он сначала разбивает ваш запрос на «токены» — небольшие фрагменты текста, такие как слова, части слов или знаки препинания. Эти токены преобразуются в числа, которые модель может обрабатывать с помощью миллиардов внутренних настроек, называемых параметрами. Они помогают ИИ распознавать закономерности, устанавливать связи и прогнозировать следующее слово. Прогнозы делаются по одному токену за раз, а затем собираются в окончательный ответ.
Весь этот процесс потребляет энергию. И теперь исследователи из Германии подсчитали, сколько CO₂ выделяется различными большими языковыми моделями (LLM), когда они отвечают на вопрос.
LLM — это программное обеспечение, лежащее в основе таких инструментов, как ChatGPT, Google Gemini и других ИИ-помощников. Они обучены на огромных объёмах текста, чтобы научиться читать, писать и отвечать осмысленно.
«Если пользователи будут знать точную стоимость CO₂ для их ИИ-генерируемого контента, например, при случайном превращении себя в фигурку для игр, они могут более избирательно и вдумчиво подходить к тому, когда и как использовать эти технологии», — говорится в исследовании.
Исследователи протестировали 14 LLM, задав им 1000 эталонных вопросов по разным темам. Затем они рассчитали связанные с этим выбросы CO₂, обнаружив большой разрыв между «краткими» моделями и теми, которые генерируют пространные, аргументированные ответы.
«Воздействие на окружающую среду при использовании обученных LLM сильно зависит от их подхода к рассуждениям, причём явные процессы рассуждения значительно увеличивают потребление энергии и выбросы CO₂», — говорит первый автор исследования Максимилиан Даунер, исследователь из Университета прикладных наук Hochschule München. «Мы обнаружили, что модели с поддержкой рассуждений производят до 50 раз больше выбросов CO₂, чем модели с краткими ответами».
Модели с рассуждениями в среднем создавали 543,5 «мыслящих» токенов на вопрос, тогда как кратким моделям требовалось всего 37,7 токенов. Больше токенов означает более высокие выбросы CO₂, но это не всегда соответствует точности.
Самая эффективная модель, Cogito (с 70 миллиардами параметров), показала точность 84,9%, но при этом выделила в три раза больше CO₂, чем модели аналогичного размера, дающие более короткие ответы.
«В настоящее время мы видим явный компромисс между точностью и устойчивостью, присущий технологиям LLM», — говорит Даунер. «Ни одна из моделей, которая удерживала выбросы ниже 500 граммов эквивалента CO₂, не достигла более 80% точности при правильном ответе на 1000 вопросов».
Тематика также имела значение. Философские или абстрактные математические вопросы приводили к выбросам в шесть раз большим, чем более простые темы, такие как история средней школы, из-за более длинных цепочек рассуждений.
Исследователи надеются, что эти выводы побудят более вдумчиво использовать ИИ.
«Пользователи могут значительно сократить выбросы, предлагая ИИ генерировать краткие ответы или ограничивая использование моделей большой мощности задачами, которые действительно требуют такой мощности», — говорит Даунер.
Даже выбор модели имеет значение. Например, DeepSeek R1 (70 миллиардов параметров), отвечая на 600 000 вопросов, генерирует выбросы, эквивалентные перелёту из Лондона в Нью-Йорк туда и обратно. Для сравнения, другая модель — Qwen 2.5, с 72 миллиардами параметров — может ответить более чем в три раза на большее количество вопросов с аналогичной точностью, генерируя при этом такие же выбросы.
Команда отмечает, что показатели выбросов могут варьироваться в зависимости от используемого оборудования и источника энергии (например, от решёток, работающих на угле, до возобновляемых источников), но основной посыл остаётся прежним: обращение к чат-боту не обходится без климатических последствий.
«Если пользователи будут знать точную стоимость CO₂ для их ИИ-генерируемого контента, они могут более избирательно и вдумчиво подходить к тому, когда и как использовать эти технологии», — говорит Даунер.
Эти выводы опубликованы в Frontiers.