El consumo de electricidad del centro de datos de IA se ha multiplicado por 5.000 en siete años

El volumen de consumo de electricidad de los centros de datos de IA ha aumentado 5000 veces en los últimos 7 años. La eficiencia energética de la IA también está mejorando, pero no ha seguido el ritmo del rendimiento de los modelos y la velocidad de su implementación.
Según señalan los autores del Informe AI Index 2025, elaborado por el Instituto de Inteligencia Artificial de Stanford, el primer transformador de red neuronal de Google Brain, lanzado en 2017, consumía aproximadamente 4,5 mil vatios de electricidad. Lanzado en la primavera de 2022, el modelo insignia PaLM de GoogleAL ya consumía 2,6 millones de vatios. El modelo Llama, presentado en el verano de 2024 por la organización Meta, que está prohibido en Rusia, ya consume 25,3 millones de vatios. Esto supone más de 5.000 veces el consumo del primer modelo de transformador.
Según el estudio, la potencia informática de los modelos de IA se duplica cada cinco meses y el volumen de datos utilizado para entrenar grandes modelos lingüísticos se duplica cada ocho meses.
Al mismo tiempo, el coste de las solicitudes a los modelos de IA se ha reducido 285 veces en dos años. Si en noviembre de 2022 el costo de una solicitud en ChatGPT-3.5 era de $20 por millón de tokens, en octubre de 2024 el costo de una solicitud en Gemini-1.5 cayó a $0,07 por millón de tokens. Y el coste de las consultas en Llama ha disminuido, dependiendo de la tarea, de 9 a 900 veces al año.
De esta forma, el uso de IA se va extendiendo y generalizando, lo que en última instancia acabará pagando los costes del consumo energético.
Por otro lado, la principal garantía de la eficiencia energética de la IA es el hecho de que los modelos más pequeños ofrecen un rendimiento cada vez mayor. Si en 2022 el modelo de alta velocidad más pequeño fue PaLM con 540 mil millones de parámetros, en 2024 el modelo Microsoft Phi-3-mini logró los mismos indicadores de rendimiento con 3.8 mil millones de parámetros. Esto supone una reducción de 142 veces en dos años.
Como resultado del creciente consumo de electricidad, los centros de datos están alcanzando gradualmente a la industria del petróleo y el gas en términos de emisiones de CO2. El líder en emisiones de dióxido de carbono fue el modelo Llama, con emisiones de 8,93 mil toneladas al año. Esto es comparable al efecto de utilizar 1.940 automóviles al año. En segundo lugar se sitúa GPT-4, que emitió 5,18 mil toneladas de CO2, lo que equivale aproximadamente a las emisiones anuales de una pequeña refinería de petróleo. Pero el proyecto de inteligencia artificial chino DeepSeek V3 2024 genera sólo 593 toneladas de CO2 al año.
En el sistema de impuestos al carbono, las empresas energéticas están obligadas a pagar por las emisiones producidas por los centros de datos.
energypolicy