Стремительная экспансия и интеграция ресурсоемких генеративных нейросетей неизбежно влекут за собой серьезные экологические издержки: от резкого скачка энергопотребления до истощения водных ресурсов.
Адам Зеве | MIT News
17 января 2025 г.

В рамках цикла из двух материалов MIT News анализирует влияние генеративного ИИ на экологию. Первая часть посвящена причинам исключительной ресурсоемкости этих технологий. Во второй части мы обсудим стратегии экспертов по минимизации углеродного следа и других негативных последствий.
Громкие заявления о преимуществах генеративного ИИ — от автоматизации рутины до прорывов в фундаментальной науке — звучат повсеместно. Однако за фасадом технологической «золотой лихорадки» скрываются трудноизмеримые и еще более сложные в плане минимизации экологические риски.
Обучение современных архитектур вроде GPT-4 от OpenAI, оперирующих миллиардами параметров, требует колоссальных вычислительных мощностей. Это оборачивается не только гигантскими счетами за электричество, но и критическим ростом выбросов CO2, создавая беспрецедентную нагрузку на региональные энергосистемы.
Более того, энергозатраты не ограничиваются этапом разработки. Повседневная эксплуатация ИИ миллионами пользователей, а также последующая тонкая настройка алгоритмов требуют стабильной подпитки энергией еще долгое время после официального релиза модели.
Помимо электроэнергии, критическим ресурсом является вода, необходимая для охлаждения серверов. Масштабное использование систем охлаждения создает нагрузку на муниципальные водоканалы и может нарушать равновесие местных экосистем. К этому добавляется косвенный ущерб: растущая потребность в специализированном «железе» стимулирует экологически грязное производство и логистику высокопроизводительного оборудования.
«Оценивая влияние генеративного ИИ на планету, нельзя ограничиваться лишь цифрами на электросчетчике. Мы имеем дело с масштабными системными последствиями, которые будут определять экологическую повестку на годы вперед», — отмечает Эльза А. Оливетти, профессор кафедры материаловедения и инженерии, курирующая вопросы декарбонизации в рамках климатического проекта МТИ.
Оливетти выступила старшим автором статьи 2024 года, посвященной влиянию генеративного ИИ на климат, которая стала ответом научного сообщества на призыв института исследовать как созидательный, так и разрушительный потенциал новых технологий.
Энергетические аппетиты дата-центров
Ключевым фактором экологического давления является энергоемкость центров обработки данных (ЦОД), где происходит обучение и запуск нейросетей, лежащих в основе таких инструментов, как ChatGPT и DALL-E.
Современный дата-центр — это огромный комплекс с прецизионным климат-контролем, вмещающий тысячи серверов и систем хранения. Для сравнения: инфраструктура Amazon насчитывает свыше ста таких объектов, каждый из которых оперирует примерно 50 000 серверов.
Хотя концепция дата-центров зародилась еще в середине прошлого века, именно эпоха генеративного ИИ спровоцировала взрывной темп их строительства и расширения.
«Специфика генеративного ИИ заключается в экстремальной плотности мощности. При тех же вычислительных процессах кластер для обучения нейросетей может потреблять в 7–8 раз больше энергии, чем стандартная серверная нагрузка», — поясняет Номан Башир, ведущий автор исследования и научный сотрудник Лаборатории компьютерных наук и искусственного интеллекта (CSAIL).
Статистика подтверждает эти опасения: потребляемая мощность ЦОД в Северной Америке выросла с 2688 МВт в конце 2022 года до 5341 МВт к концу 2023-го. В глобальном масштабе расход электроэнергии дата-центрами в 2022 году достиг 460 ТВт·ч. По данным ОЭСР, если бы отрасль ЦОД была страной, она заняла бы 11-е место в мире по энергопотреблению, расположившись между Саудовской Аравией и Францией.
Прогнозы на 2026 год еще более тревожны: показатель может вырасти до 1050 ТВт·ч, что выведет индустрию на пятую строчку мирового рейтинга — вплотную к показателям Японии и России.
Хотя не все мощности ЦОД заняты нейросетями, именно генеративные модели выступают сегодня главным катализатором роста спроса. «Темпы строительства новых мощностей настолько высоки, что обеспечить их возобновляемой энергией практически невозможно. Большую часть этого дефицита придется закрывать за счет ископаемого топлива», — подчеркивает Башир.
Точные энергозатраты на обучение моделей уровня GPT-3 вычислить крайне сложно. Согласно оценкам ученых из Google и Беркли, только на один цикл обучения было потрачено 1287 МВт·ч — этого объема хватило бы для снабжения 120 частных домов в США в течение года. Экологическим эквивалентом этого процесса стали 552 тонны углекислого газа.
Дополнительную сложность создают резкие колебания нагрузки в процессе обучения. Чтобы защитить сеть от перепадов, операторам часто приходится задействовать резервные дизельные генераторы.
Скрытая цена каждого запроса
После завершения обучения стадия эксплуатации (инференс) продолжает потреблять ресурсы.
Каждый раз, когда пользователь просит ИИ составить краткое содержание текста, сервер тратит энергию. Исследования показывают, что один запрос к ChatGPT обходится планете в пять раз «дороже», чем обычный поисковый запрос в Google.
«Рядовой пользователь редко задумывается об этом. Дружелюбный интерфейс и отсутствие информации об экологической цене клика не дают стимулов к экономии ресурсов», — отмечает Башир.
В классическом машинном обучении нагрузка распределяется равномерно, однако эксперты прогнозируют, что в сфере генеративного ИИ доминирующим фактором станет именно инференс. По мере того как модели становятся сложнее и внедряются во все новые сервисы, совокупный расход энергии на их работу будет расти в геометрической прогрессии.
Еще одна проблема — короткий жизненный цикл моделей. Гонка вооружений заставляет компании выпускать обновления каждые несколько недель. Это обесценивает колоссальную энергию, затраченную на предыдущие версии, а новые итерации обычно становятся еще крупнее и прожорливее.
Не стоит забывать и о воде. Охлаждение оборудования — процесс крайне водоемкий. По оценкам экспертов, на каждый киловатт-час потребленной энергии дата-центру требуется около двух литров воды.
«Метафора «облачных вычислений» обманчива. Инфраструктура ИИ вполне материальна и находится на земле, напрямую влияя на биоразнообразие и локальные природные ресурсы через огромное потребление воды», — говорит Башир.
Производство аппаратной базы также накладывает свой отпечаток. Выпуск графических процессоров (GPU), способных справляться с нагрузками ИИ, требует куда более сложных и грязных технологических циклов, чем производство обычных процессоров. Сюда же добавляется углеродный след от транспортировки и ущерб от добычи редкоземельных металлов.
В 2023 году лидеры рынка (NVIDIA, AMD и Intel) поставили в ЦОД 3,85 миллиона GPU, что значительно превышает показатели предыдущего года. И этот тренд только усиливается.
По мнению Башира, текущий путь развития индустрии неустойчив. Отрасли необходим комплексный подход, учитывающий все социальные и экологические издержки в противовес потенциальным выгодам.
«Нам нужно научиться системно оценивать последствия новых разработок. Технический прогресс в этой области настолько стремителен, что мы просто не успеваем анализировать и балансировать возникающие риски», — резюмирует профессор Оливетти.
Источники и авторство:
-
Издание: MIT News
-
Автор: Adam Zewe
-
Дата публикации: 17 января 2025 г.
-
Адаптация: zxlecya


