Внедрение искусственного интеллекта влияет на все аспекты нашей жизни: от поиска информации, до управления городами и принятия бизнес-решений.

Но за красивыми интерфейсами, генеративными ответами и автоматизацией процессов скрывается растущая, буквально ненасытная потребность в энергии. И дело не только в счетах за электричество.

Последствия для окружающей среды могут быть весьма серьезными. По мере развития ИИ-моделей, которые становятся все более сложными, растет потребление природных ресурсов. Вопрос в том, сможем ли мы прокормить наше ИИ-детище без ущерба себе и планете?

Цифровой прогресс, питающийся мегаваттами

Чтобы оценить масштаб, достаточно посмотреть на цифры. Будущие потребности ИИ в энергии могут сравниться с потреблением целых стран (например, Японии или Нидерландов).

Пока мы тренируем и запускаем все более сложные ИИ-модели, энергопотребление достигает своего пика. Это приводит к дополнительным выбросам парниковых газов, дефициту пресной воды и давлению на устаревающие энергетические сети, которые подвергаются еще большему износу.

В 2024 году глобальный спрос на электричество установил рекорд и вырос на 4,3%. ИИ — одна из ключевых причин такого роста, наряду с электромобилями и попытками возродить промышленное производство.

По данным на 2022 год, центры обработки данных, ИИ и криптодобыча в совокупности потребляли около 2% всей электроэнергии в мире. Это порядка 460 тераватт-часов (ТВт/ч). В 2024 году сами дата-центры уже «съели» около 415 ТВт/ч. Ежегодный прирост потребления составляет 12%.

К 2030 году потребление может достичь 945–1500 ТВт/ч ежегодно на одни только дата-центры. Это может составить до 21% мирового спроса на электроэнергию, если учесть все процессы использования ИИ от обучения моделей до вывода ответов на наши мониторы.

Где ИИ потребляет энергию?

Проблема в том, что большая часть энергии уходит на ежедневную эксплуатацию ИИ-моделей, а вовсе не на их разработку и обучение.

Тренировка модели уровня GPT-3 потребовала примерно 1287 мегаватт-часов (МВт/ч), а GPT-4, по разным оценкам, — в 50 раз больше. При этом до 80% всей энергии уходит на обычные запросы пользователей.

К примеру, только при одном запросе к ChatGPT потребляется в 10 раз больше энергии, чем при обычном поиске в браузере (2,9 ватт-часа против 0,3 ватт-часа).

Чем больше пользователей и чем сложнее модели, тем выше нагрузка на инфраструктуру.

Не только электроэнергия: водные ресурсы и эко-след

Охлаждение дата-центров требует колоссальных объемов воды. На каждый киловатт-час потребляемой энергии в среднем требуется 1,7 литра. В 2022 году центры Google израсходовали около 19 миллиардов литров пресной воды. Это на 20% больше, чем годом ранее.

Если тренды сохранятся, то инфраструктура ИИ будет потреблять в 6 раз больше воды, чем, например, вся Дания.

Еще одной проблемой являются электронные отходы. GPU и TPU обновляются быстро, оборудование устаревает за считанные годы. К 2030 году ИИ-сектор может производить до 5 миллионов тонн e-waste в год.

В итоге только создание одного ИИ-чипа может потребовать более 1400 литров воды и 3000 кВт/ч энергии. Не забываем и о полупроводниках. Фабрики по их производству питаются от традиционных газовых электростанций, что приводит к дополнительным выбросам CO₂.

В процессе строительства дата-центров для ИИ Microsoft выбросы выросли на 40% в период с 2020 по 2023 год. Google рапортовал о росте эмиссии почти на 50% за последние пять лет — в значительной степени по той же причине.

Где же взять столько энергии?

Можем ли мы обеспечить энергией и людей, и растущий аппетит ИИ? Одно из возможных решений — в диверсификации энергетики. На возобновляемые источники мы пока полагаться не можем. А дата-центрам нужно питание 24/7, без сбоев.

Объемы солнечной и ветровой энергетики в США могут достигнуть прогнозируемой отметки в 27% к 2026 году. Microsoft планирует закупить 10,5 ГВт «зеленой» энергии для своих центров в период с 2026 по 2030 год.

В дело может вступить и сам ИИ. С его помощью можно оптимизировать хранение энергии, улучшить работу электросетей, прогнозировать потребление и даже снизить энергозатраты на 60% при некоторых сценариях.

Но этого все еще недостаточно. По этой причине ядерная энергетика вновь становится предметом серьезного интереса. Особенно перспективны модульные реакторы (SMR) — более безопасные, компактные и быстро развертываемые. Amazon, Google и Microsoft уже инвестируют в ядерные проекты.

Однако на это может уйти много времени, денег и регулирования. А ИИ развивается в разы быстрее, чем постройка нового энергоблока. В ближайшие годы придется частично вернуться к ископаемому топливу. С другой стороны, идет вразрез с экологическими целями.

Можем ли мы посадить ИИ на «диету»?

В данный момент ведется активная работа над оптимизацией самых разных направлений и подходов. Среди них:

  • оптимизация алгоритмов pruning, quantisation, distillation как способ «урезать» модель без потери качества;

  • создание небольших, узкоспециализированных моделей, которые решают задачи точечно с меньшим потреблением по сравнению с универсальных ИИ-моделями;

  • умные дата-центры для динамического распределения ресурсов, запуска задач в часы низкой нагрузки, power capping;

  • On-device AI подход для переноса вычислений на смартфоны, где работают энергоэффективные чипы;

  • оценка углеродного следа с помощью аналитики и отчетности по выбросам;

  • государственные регуляции и инициативы по стандартизации процессов и внедрению «зеленых» технологий.

«Сытый ИИ» — наша общая цель

ИИ способен решать задачи, которые раньше были невозможны. Но его энергетическая жажда — это реальный вызов, с которым нужно справляться уже сейчас. Иначе мы рискуем попасть в парадокс: создавая технологии будущего, мы можем угробить ресурсы настоящего.

Решение требует технологий, инноваций, политической воли и прозрачности. Мы, как разработчики, инженеры, исследователи и потребители, должны задать правильный вектор.

Искусственный интеллект не должен становиться экологическим монстром. Он должен быть частью устойчивого будущего. И это в наших руках.

Комментарии (0)