Why do AI chatbots use so much energy?
В последние годы популярность чатботов на базе ИИ выросла до неузнаваемости. Например, ChatGPT, запущенный компанией OpenAI, ежедневно обрабатывает более двух с половиной миллиардов запросов от пользователей. Эти запросы кажутся простыми: "Напиши статью", "Объясни понятие", "Переведи текст". Но за этим скрывается нечто гораздо более сложное и энергоемкое: огромные вычислительные мощности и, соответственно, значительный потребитель энергии, необходимый для обучения и функционирования таких систем.

Объем энергопотребления дата-центров, обеспечивающих работу ИИ
Исследования показывают, что дата-центры, в которых осуществляется обучение и обработка данных для ИИ, уже сейчас составляют около 4.4% всей электроэнергии, потребляемой в Соединенных Штатах. В глобальном масштабе эти центры отвечают примерно за 1.5% мирового потребления энергии. Эти цифры с каждым годом растут, а according to прогнозам, к 2030 году они могут удвоиться или даже утроиться, что обусловлено ростом спроса на автоматизацию, аналитические системы и сложные модели машинного обучения.
«Только три года назад о ChatGPT не было и речи. А сегодня мы говорим о технологии, которая может потреблять почти половину всей электроэнергии дата-центров в мире», — объясняет Алекс де Врис-Гао, специалист по устойчивому развитию цифровых технологий.
Почему ИИ чатботы так сильно расходуют энергию?
Ответ кроется в масштабных вычислительных задачах, которые стоят за созданием и эксплуатацией ИИ. Есть два основных этапа, больших по потреблению энергии: обучение моделей (training) и выполнение запросов в реальном времени (inference). Об этих этапах рассказывают ведущие ученые в области компьютерных наук и энергетики.
Обучение больших языковых моделей
Обучение современных ИИ, таких как GPT, потребует огромных ресурсов. В рамках этого процесса модели подают на вход гигантские датасеты, содержащие миллиарды текстовых фрагментов, чтобы выявить закономерности и научиться делать прогнозы и отвечать на вопросы. Чем больше модель — тем лучше ее предсказания, считают разработчики. Но в то же время, чем больше данных и параметров — тем больше ресурсов нужно для обучения.
К примеру, по данным исследований, один сервер Nvidia DGX A100 с мощностью 6,5 киловатт способен обеспечить работу системы, необходимой для обучения отдельной модели. Обычно процесс обучения involves несколько таких серверов, объединенных в кластер, который работает на протяжении нескольких недель, а иногда и месяцев. В результате, обучение крупной модели, например GPT-4, может потреблять энергетические ресурсы в объеме 50 гигаватт-часов — это эквивалентно питанию Сан-Франциско в течение трех дней.
Энергозатраты на выполнение запросов
После обучения модель переходит к стадии inference — генерации ответов по заданным запросам. Несмотря на то, что для этого требуется намного меньшая вычислительная мощность, чем для обучения, объем запросов существенно влияет на энергозатраты. В среднем, одна сессия с ИИ-системой требует работы серверов, способных быстро реагировать. При этом, учитывая, что ежедневно ТОННЫ запросов отправляются в систему ChatGPT и другие подобные платформы, совокупный расход энергии становится поистине огромным.
К примеру, по состоянию на июль 2025 года, OpenAI заявляет, что пользователи отправляют более 2.5 миллиарда запросов ежедневно. Для обеспечения такой высокой нагрузки используются десятки больших серверных комплексов. Одной из главных проблем является невозможность снижения энергозатрат — модель уже настолько масштабна, что даже оптимизация процессов не способна полностью устранить высокое потребление энергии.
Что говорят исследования и эксперты?
Учёные, такие как Мошараф Чоудхури из Мичиганского университета, активно работают над измерением и снижением энергетических затрат. В рамках своих последних работ он создал ML Energy Leaderboard — рейтинг, который отслеживает энергопотребление различных моделей при inference. По его мнению, точное измерение потребляемой энергии — ключ к разработке более устойчивых решений.
«Большинство крупных компаний, таких как Google, Microsoft и Meta, держат эти цифры в тайне, что усложняет задачу оценки реального воздействия ИИ на экологию», — отмечает Алекс де Врис-Гао.
Проблемы прозрачности и необходимость регулирования
Основная проблема, с которой сталкиваются исследователи и общество — отсутствие прозрачности. Компании не раскрывают точные данные о расходе энергии своих систем, что мешает формированию эффективных политик и инициатив по снижению экологического следа. Потребители и разработчики ИИ могут только гадать, насколько их использование экологически безопасно, и что можно сделать для уменьшения негативных последствий.
По словам экспертов, именно роли регуляторов и инициатив по прозрачности могут привести к более ответственному использованию технологий. Информированные пользователи могут требовать от компаний отчетности, а также внедрять более экологичные практики при использовании ИИ.
Перспективы и пути уменьшения энергопотребления
Несмотря на текущие вызовы, ученые и инженеры ищут решения. Среди них — создание более энергоэффективных аппаратных средств, оптимизация алгоритмов и сокращение вычислительных операций. Например, разработка специализированных чипов, предназначенных для обучения и inference ИИ, способна значительно снизить энергозатраты. Также важна разработка моделей, которые требуют меньших объемов данных и параметров, сохраняя при этом высокую точность.
Наряду с этим, существует движение за развитие открытых и прозрачных платформ — чтобы сообщество могло лучше оценивать и сравнивать экологическую эффективность различных решений.
Вывод
Итак, энергоемкость ИИ обусловлена масштабами вычислений, необходимыми для обучения и эксплуатации больших языковых моделей, а также ростом количества запросов. Несмотря на технологический прогресс, который позволяет достигать высокой точности и скорости, эти достижения требуют огромных затрат энергии. Обеспечивая прозрачность, развитие новых технологий и регулирование, человечество может снизить экологический след использования искусственного интеллекта и сделать его более устойчивым.