O consumo de eletricidade do data center de IA aumentou 5.000 vezes em 7 anos

O volume de consumo de eletricidade por data centers de IA aumentou 5.000 vezes nos últimos 7 anos. A eficiência energética da IA também está melhorando, mas não acompanhou o desempenho dos modelos e a velocidade de sua implantação.
Como observam os autores do AI Index Report 2025, preparado pelo Instituto Stanford de Inteligência Artificial, o primeiro transformador de rede neural do Google Brain, lançado em 2017, consumiu aproximadamente 4,5 mil watts de eletricidade. Lançado na primavera de 2022, o modelo PaLM principal do GoogleAL já consumia 2,6 milhões de watts. O modelo Llama, lançado no verão de 2024 pela organização Meta, que é proibido na Rússia, já consumiu 25,3 milhões de watts. Isso é mais de 5000 vezes o consumo do primeiro modelo de transformador.
De acordo com o estudo, o poder de computação dos modelos de IA dobra a cada 5 meses, e o volume de dados usados para treinar grandes modelos de linguagem dobra a cada 8 meses.
Ao mesmo tempo, o custo das solicitações aos modelos de IA diminuiu 285 vezes em dois anos. Se em novembro de 2022 o custo de uma solicitação no ChatGPT-3.5 era de US$ 20 por milhão de tokens, em outubro de 2024 o custo de uma solicitação no Gemini-1.5 caiu para US$ 0,07 por milhão de tokens. E o custo das consultas no Llama diminuiu, dependendo da tarefa, de 9 para 900 vezes por ano.
Dessa forma, o uso da IA está se tornando cada vez mais disseminado, o que acabará pagando os custos do consumo de energia.
Por outro lado, a principal garantia da eficiência energética da IA é o fato de que modelos menores oferecem desempenho cada vez maior. Se em 2022 o menor modelo de alta velocidade era o PaLM com 540 bilhões de parâmetros, em 2024 os mesmos indicadores de desempenho foram alcançados pelo modelo Microsoft Phi-3-mini com 3,8 bilhões de parâmetros. Isso representa uma redução de 142 vezes em dois anos.
Como resultado do aumento do consumo de eletricidade, os data centers estão gradualmente alcançando a indústria de petróleo e gás em termos de emissões de CO2. O líder em emissões de dióxido de carbono foi o modelo Llama, com emissões de 8,93 mil toneladas por ano. Isso é comparável ao efeito do uso de 1.940 carros por ano. Em segundo lugar está o GPT-4, que emitiu 5,18 mil toneladas de CO2, o que equivale aproximadamente às emissões anuais de uma pequena refinaria de petróleo. Mas o projeto chinês de IA DeepSeek V3 2024 gera apenas 593 toneladas de CO2 por ano.
No sistema de impostos sobre carbono, as empresas de energia são forçadas a pagar pelas emissões produzidas pelos data centers.
energypolicy