Экологический след ИИ: сколько энергии и воды потребляют крупные модели и как сделать их более устойчивыми

Экологический след ИИ: сколько энергии и воды потребляют крупные модели и как сделать их более устойчивыми

Каждый запрос к большой языковой модели — это не «магия в облаке», а работа тысяч графических процессоров, систем охлаждения, трансформаторных подстанций и водяных контуров. Пока мы генерируем мемы и обсуждаем скорость ответов, растёт потребление энергии и воды. Пора задуматься о реальных ресурсах, которые скрыты за цифровыми технологиями.

Искусственный интеллект — одно из важнейших технологических достижений последних лет. Он автоматизирует рутину, ускоряет научные исследования и меняет работу в разных отраслях — от медицины до разработки ПО. Но, как и любая крупная цифровая инфраструктура, ИИ опирается на физическую основу: дата-центры, вычислительные кластеры и системы охлаждения. Они требуют электроэнергии и воды. И по мере роста популярности ИИ его экологический след становится всё заметнее.

Ресурсный след на этапе обучения моделей

Самые точные данные по энергопотреблению доступны для GPT-3, обучение которой состоялось в 2020 году. Это одна из немногих моделей, для которой разработчики опубликовали достаточные технические параметры: 175 миллиардов параметров и около 500 миллиардов токенов в обучающем датасете. Благодаря этому независимые эксперты смогли рассчитать её ресурсный след. Для более новых моделей, таких как GPT-4, такие данные, как правило, не раскрываются.

Обучение GPT-3 потребовало около 1 287 МВт⋅ч электроэнергии — столько же, сколько тратит средний жилой квартал за год. Современные модели значительно крупнее, и их обучение может требовать десятков тысяч МВт⋅ч.

Углеродный след GPT-3 оценивается в 552 тонны CO₂-эквивалента — это как годовые выбросы более чем 100 автомобилей.

Ещё один важный, но менее очевидный ресурс — вода. Она используется для охлаждения серверов. По оценкам, обучение GPT-3 потребовало около 700 000 литров пресной воды.

Ресурсный след на этапе эксплуатации

Если обучение — это одноразовый ресурсный всплеск, то инференс (обработка запросов) создаёт постоянную нагрузку.

Один запрос к чат-боту может потреблять от 0,5 до 45 Вт⋅ч энергии — в зависимости от модели и длины ответа. Один запрос почти не заметен, но миллиарды запросов в день дают сотни МВт⋅ч в сумме.

По прогнозу Международного энергетического агентства, к 2026 году энергопотребление дата-центров может достигнуть 800 ТВт⋅ч — больше, чем потребляют многие страны среднего размера.

Водный след тоже значителен. Исследование 2023 года показало: 20 запросов к языковой модели косвенно требуют около 0,5 литра воды. Отсюда и пошла вирусная фраза «каждый запрос — стакан воды». Это упрощение, но проблема реальна, особенно в регионах с дефицитом воды, например в Чили, где дата-центры растут на фоне многолетней засухи.

Что могут сделать ИТ-компании

Компании могут снизить экологический след ИИ на уровне инфраструктуры.

Во-первых, важно выбирать дата-центры в регионах с высокой долей возобновляемой энергии. Это напрямую снижает углеродный след. Также важна энергоэффективность самих центров: современные площадки стремятся к показателю PUE (power usage effectiveness) 1,1–1,2, что означает минимальные потери энергии на охлаждение и вспомогательные системы.

Во-вторых, стоит переходить на замкнутые водные циклы или альтернативные методы охлаждения, чтобы сократить расход пресной воды. Холодный климат также помогает: естественное охлаждение снижает нагрузку на инфраструктуру.

Наконец, энергоэффективность можно включить в корпоративные KPI. Некоторые компании, такие как Google, уже публикуют ESG-отчёты, где учитывают воздействие ИИ на окружающую среду. Это повышает прозрачность и стимулирует поиск более устойчивых решений.

Что могут сделать айтишники

Оптимизация начинается на уровне архитектуры моделей и приложений.

  • Pruning (обрезка модели) — удаление параметров, которые почти не влияют на результат. Это делает модель легче и снижает энергозатраты при инференсе.
  • Quantization (квантизация) — снижение точности вычислений. Переход с 32-битных чисел на 16-, 8- или 4-битные уменьшает потребление памяти и энергии.
  • Distillation (дистилляция) — обучение компактной модели на основе ответов большой. В продакшене можно использовать лёгкую модель, адаптированную под конкретную задачу, вместо гигантской универсальной.
  • Архитектурные решения — например, retrieval-augmented generation (RAG), при котором модель получает только релевантные данные. Кэширование ответов и пакетная обработка (batch-inference) тоже снижают нагрузку.
  • Управление продуктовой логикой — ограничение длины промптов и ответов, запрет на автоматические перегенерации и отказ от «красивых, но бессмысленных» текстов там, где хватит шаблона.

Уходя — гасите свет: оптимизация на уровне пользователя

Пользователи тоже могут внести вклад. Чтобы сократить энергопотребление, можно задать ИИ чёткие инструкции:

«Отвечай кратко и по делу. Без комплиментов, извинений, повторов и вводных фраз. Не предлагай дополнительные действия, если я прямо об этом не прошу. Ограничь ответ 5–7 предложениями».

Такие правила можно сохранить как системный промпт — они будут применяться автоматически ко всем новым диалогам.

Это работает, потому что энергозатраты зависят от длины генерируемого текста: каждый новый токен проходит через все слои нейросети. Ответ из 120 слов потребляет значительно меньше энергии, чем из 800. Для одного пользователя разница мала — доли ватт-часа. Но если миллионы пользователей начнут использовать краткие запросы, суммарная экономия будет ощутимой. Это как выключать свет, выходя из комнаты.

Меньше «пустых» запросов

Во всём мире растёт число запросов к ИИ «просто так» — ради развлечения или мгновенного ответа на любой вопрос. Это называют casual prompting — «бездумные запросы».

В январе 2026 года жители чилийского города Киликура запустили проект Quili.AI — «чат-бот» на человеческой энергии. В течение 12 часов 50 добровольцев вручную отвечали на более чем 25 000 запросов со всего мира. На просьбу сгенерировать изображение «ленивца, играющего в снегу» один из участников нарисовал мультяшного персонажа с снежком в лапе.

Цель акции — не доказать, что люди могут заменить ИИ. Организаторы подчеркнули: ИИ — мощный инструмент. Но не каждый вопрос требует его вмешательства. Иногда достаточно знаний, опыта или честного «не знаю». Главный посыл Quili.AI: сокращение бессмысленных запросов не остановит прогресс, но снизит нагрузку на инфраструктуру, стоящую за ИИ.

Читать оригинал