Combien de « bragawatts » les hyperscalers ont-ils annoncés jusqu'à présent ?

Restez informé grâce aux mises à jour gratuites
Inscrivez-vous simplement à la newsletter myFT Digest sur l'intelligence artificielle, qui vous sera livrée directement dans votre boîte mail.
Le montage financier mis en place pour l'immense campus de centres de données Hyperion de Meta en Louisiane a suscité la curiosité d'Alphaville quant à la quantité d'énergie que consommera cette nouvelle infrastructure d'IA une fois pleinement opérationnelle.
Après tout, de nouveaux projets d'envergure sont annoncés presque chaque semaine, dans ce que même le responsable de l'infrastructure numérique de KKR a qualifié de phénomène de « fanfaronnade » dans MainFT lundi.
Le dernier exemple en date est l'annonce , jeudi, par OpenAI, de son projet de centre de données d'une capacité supérieure à un gigawatt dans le Michigan. Avec les projets « Stargate » déjà annoncés, la puissance totale dépasse les 8 gigawatts, un chiffre proche des 10 gigawatts évoqués en début d'année. Ce projet devrait coûter plus de 450 milliards de dollars sur les trois prochaines années, selon l'entreprise qui dépense davantage en marketing et en options d'achat d'actions pour ses employés qu'elle ne réalise de chiffre d'affaires .
Combien de projets de centres de données ont été lancés ou annoncés à ce jour ? Lesquels se concrétiseront et lesquels relèvent de la pure fantaisie ? Comme l’a souligné Barclays la semaine dernière, distinguer le réel du spéculatif est un travail à plein temps, mais la banque a contraint quelques pauvres analystes financiers à recenser au moins toutes les annonces et à rassembler quelques informations de base.
Alors, quel est le total à ce jour ? Avec le projet d'OpenAI dans le Michigan, on atteint désormais 46 gigawatts de puissance de calcul. Excusez-moi pour ce ton enthousiaste, mais c'est tout simplement incroyable.
D'après Barclays, la construction de ces centres coûtera 2 500 milliards de dollars, pour un secteur qui n'est toujours pas rentable. Mais le plus ahurissant, c'est sans doute leur consommation énergétique une fois opérationnels. En utilisant le ratio d'efficacité énergétique (PE) de Barclays, qui s'élève à 1,2, l'ensemble de ces centres de données – s'ils sont tous construits – nécessiterait 55,2 gigawatts d'électricité pour fonctionner à pleine capacité.
Si l'on applique également la règle empirique de Barclays selon laquelle 1 gigawatt peut alimenter plus de 800 000 foyers américains, cela signifie que ces centres de données consommeront autant d'énergie que 44,2 millions de ménages, soit près de trois fois le parc immobilier total de la Californie.*
D'où provient donc toute cette énergie ? Eh bien, le projet Michigan Stargate d'OpenAI est peut-être instructif.
Toute l'électricité nécessaire au site Stargate du Michigan proviendra de DTE Energy, qui a souligné la semaine dernière, dans ses résultats du troisième trimestre, que cela n'aurait aucun impact négatif sur les consommateurs ordinaires, et a déclaré que Developer Related Companies — qui construit réellement le campus — prendrait en charge les coûts de la nouvelle infrastructure électrique nécessaire :
La nouvelle demande en électricité sera satisfaite grâce aux capacités existantes et à de nouveaux investissements dans le stockage d'énergie, financés par le centre de données. La croissance de ce centre de données permettra aux clients actuels de bénéficier d'une meilleure accessibilité financière, DTE vendant ses excédents de production. De plus, les clauses contractuelles garantiront que le centre de données prenne en charge l'intégralité des nouveaux coûts liés à la desserte de ces clients.
Cependant, DTE a augmenté son plan d'investissement quinquennal de 6,5 milliards de dollars, ce qui, comme l'a souligné Barclays, comprenait le remplacement d'une de ses centrales à charbon par des turbines à gaz. Et cela semble devenir la norme.
Dans de nombreux autres cas, les plans d'affaires des centres de données prévoient l'installation d'une partie au moins de leur propre système de production d'énergie. Par exemple, le campus Prometheus de Meta prévoit une production de 516 mégawatts grâce à l'énergie solaire et à des turbines à gaz. Les centres de données d'Amazon en Pennsylvanie se sont vu promettre 1,9 gigawatts provenant de la centrale nucléaire de Talen Energy.
Cependant, dans de nombreux cas, les réseaux électriques régionaux semblent encore désespérément inadaptés pour faire face à une demande qui pourrait exploser au cours des prochaines années.
Au-delà de son ampleur même, la nature de la demande énergétique liée à l'IA est également particulièrement problématique. Comme le soulignait un récent rapport de Nvidia (avec l'accentuation d'Alphaville ci-dessous) :
Contrairement à un centre de données traditionnel exécutant des milliers de tâches non corrélées, une usine d'IA fonctionne comme un système unique et synchrone. Lors de l'entraînement d'un modèle de langage (LLM) de grande taille, des milliers de GPU exécutent des cycles de calculs intensifs, suivis de périodes d'échange de données, de manière quasi-synchrone. Ceci engendre un profil de consommation énergétique global caractérisé par des variations de charge massives et rapides.
Ce problème de volatilité a été documenté dans une étude conjointe de NVIDIA, Microsoft et OpenAI sur la stabilisation de l'alimentation électrique des centres de données d'entraînement d'IA. Cette étude montre comment des charges de travail GPU synchronisées peuvent provoquer des oscillations à l'échelle du réseau.
La consommation électrique d'une baie peut varier de 30 % à 100 % en quelques millisecondes, passant d'un état de veille à un état bas. Cette variation extrême oblige les ingénieurs à surdimensionner les composants pour supporter le courant de pointe, et non le courant moyen, ce qui augmente les coûts et l'encombrement. À l'échelle d'une salle de serveurs, ces fluctuations importantes – représentant des centaines de mégawatts qui augmentent et diminuent en quelques secondes – constituent une menace sérieuse pour la stabilité du réseau électrique, faisant de l'interconnexion au réseau un goulot d'étranglement majeur pour le déploiement de l'IA.
C’est sans doute pourquoi des projets comme celui de Michigan, Stargate, prévoient d’importants systèmes de stockage d’énergie. Mais cela explique aussi pourquoi OpenAI a demandé cet été à l’administration Trump de veiller à ce que les États-Unis mettent en service une capacité de production massive de 100 gigawatts par an pour alimenter les besoins croissants de l’intelligence artificielle.
Alors, quelle est la probabilité que tout cela se déroule comme l'envisagent les visionnaires de l'IA et autres ?
Eh bien, OpenAI a étrangement averti que les États-Unis étaient désormais confrontés à un « déficit d'électrons » face à la Chine – une allusion au « déficit de missiles » de la Guerre froide, qui s'est avéré être une pure ineptie. Même à l'époque, la CIA savait que c'était absurde. Certes, la Chine a peut-être considérablement augmenté sa capacité de production d'électricité ces derniers temps, mais qu'OpenAI invoque un mirage aussi connu est… curieux.
Cependant, une fois l'engouement retombé, pourrions-nous au moins nous retrouver avec un réseau énergétique plus vaste, plus performant et moins cher ?
*Ou 46 sauts temporels avec la DeLorean.
FINANCIALTIMES

