Gene AI: Energiehonger met gevolgen


Naarmate generatieve kunstmatige intelligentie (AI) steeds meer de wereld verovert, wordt de aanzienlijke negatieve impact ervan op het milieu steeds duidelijker.
Als we het over kunstmatige intelligentie hebben, hebben we het over het vermogen van machines om menselijke intelligentie te imiteren. Generatieve AI gaat een stap verder. In tegenstelling tot traditionele machine learning-modellen, die patronen leren en deze gebruiken om voorspellingen te doen of beslissingen te nemen, leert generatieve AI niet alleen van data, maar creëert het ook zelf nieuwe data-instanties. Dit creatieve vermogen opent een scala aan mogelijkheden. Het spectrum reikt van het creëren van teksten voor doeleinden zoals contentmarketing, vertalingen en klantenservice, tot het genereren van afbeeldingen op basis van tekstuele beschrijvingen voor reclame, design en kunstproductie, tot het creëren van nieuwe muziekstukken of het artistiek bewerken van afbeeldingen. Het wordt ook mogelijk om synthetische data te genereren voor de training van andere AI-modellen, met name in scenario's waarin het verzamelen van echte data moeilijk of onmogelijk is.
INVESTERINGEN ONTPLOFFEN. Toepassingsscenario's zijn in vrijwel elke bedrijfstak te vinden. De economische ontwikkeling vordert dan ook snel. Volgens de onderzoeksafdeling van Statista bedroegen de wereldwijde particuliere investeringen in generatieve AI in 2022 ongeveer vier miljard dollar. In 2024 was dit bedrag al opgelopen tot 34 miljard. De prognose voor 2031: meer dan 400 miljard. Binnen tien jaar zou het marktvolume dan verhonderdvoudigd zijn.
Technologiebedrijven zoals Microsoft zijn hiervoor de voornaamste verantwoordelijken. Het bedrijf is van plan om alleen al in 2025 tachtig miljard dollar te investeren in generatieve AI. In een recent persbericht sprak vicevoorzitter en president Brad Smith over een "gouden kans voor Amerikaanse kunstmatige intelligentie" en over "het bouwen van AI-geschikte datacenters waar AI-modellen worden getraind en AI- en cloudgebaseerde applicaties wereldwijd worden ingezet." De energie voor deze datacenters zal onder andere afkomstig zijn van de kerncentrale Three Mile Island, de centrale waar een gedeeltelijke meltdown in 1979 het ernstigste ongeluk in de Amerikaanse geschiedenis veroorzaakte. Eind 2024 kondigden energiebedrijf Constellation Energy en Microsoft in een gezamenlijk persbericht aan dat er een overeenkomst voor de levering van energie voor twintig jaar was getekend. Unit 1, die negen jaar eerder werd stilgelegd, zal naar verwachting in 2028 weer in bedrijf worden genomen en de benodigde elektriciteit leveren voor de AI-toepassingen van Microsoft. Dit onthult ook de keerzijde van generatieve AI: de energie-intensiteit ervan.
DURE GROETEN. De energiehonger van de bloeiende AI-sector wordt geïllustreerd door het voorbeeld van zijn bekendste protagonist. Een enkele zoekopdracht aan een AI-chatbot zoals ChatGPT kan tot tien keer meer stroom verbruiken dan een klassieke Google-zoekopdracht: terwijl die laatste ongeveer 0,3 wattuur verbruikt, verbruikt een chatbotzoekopdracht 2,9 wattuur. Dit is genoeg om een ledlamp twee uur van stroom te voorzien. De grote hoeveelheden elektrische energie die in de servercentra nodig zijn voor elke individuele zoekopdracht, zijn het gevolg van de inspanning die nodig is om de zoekopdracht te verwerken, gegevens te verzenden en tussen de systemen te communiceren. Sam Altman, CEO van OpenAI, rapporteerde onlangs over de drastische impact van ogenschijnlijk kleine details in antwoord op een gebruikersvraag. Volgens het onderzoek kost het uitwisselen van beleefde zinnen zoals "alsjeblieft" en "dankjewel" in communicatie met de chatbot het bedrijf tientallen miljoenen dollars, omdat de verwerkingsinspanning aanzienlijk toeneemt door de extra woorden.
Dat zelfs een conventionele Google-zoekopdracht steeds meer elektriciteit verbruikt, komt door de recente integratie van door AI gegenereerde antwoorden voor bepaalde zoekopdrachten. Wanneer Googles taalmodel Gemini de belangrijkste uitspraken uit verschillende bronnen samenvat, kost dat enorm veel extra energie. Het bedrijf, dat een marktaandeel van 94 procent heeft in mobiel zoeken, verwerkt momenteel zo'n 100.000 zoekopdrachten per seconde. Experts zoals de Nederlandse AI-onderzoeker Alex de Vries schatten dat als de Google-zoekmachine voor elke zoekopdracht generatieve AI zou gebruiken, er ongeveer 29,2 TWh elektriciteit per jaar nodig zou zijn (in plaats van de huidige 18 TWh) – ongeveer gelijk aan het jaarlijkse elektriciteitsverbruik van Ierland. Overigens test Google in de VS al de volgende ontwikkelingsfase van zoekmachine naar antwoordmachine: met de zogenaamde AI-modus spuwt het taalmodel langere samenvattingen van antwoorden uit, waarmee standaardlinks volledig worden vervangen.
REKENINGINTENSIEVE BEELDEN. De energie-intensiteit en daarmee de bedreiging voor klimaatdoelstellingen worden zelfs door technologiebedrijven niet langer betwist. Begin 2025 noemde Microsoft Vice President Brad Smith generatieve AI als de belangrijkste reden waarom de bedrijfsuitstoot in 2025 met ongeveer 30 procent zal toenemen ten opzichte van 2020. Het trainen van grote AI-taalmodellen wordt beschouwd als de belangrijkste factor in deze milieuschadelijke energievraag. Een van de eerste onderzoekers die dit verband onderzocht, was de Amerikaanse pionier op het gebied van groene AI, Emma Strubell. Zij ontdekte dat alleen al het trainen van ChatGPT en vergelijkbare modellen CO2 uitstoot die relevant is voor klimaatverandering. Om dit te doen, onderzocht ze in 2019 eerst hoeveel elektriciteit de bijzonder wijdverspreide Transformer AI's verbruiken wanneer ze één dag worden getraind op een gestandaardiseerde computer. Strubells onderzoeksgroep extrapoleerde vervolgens hoeveel CO2-uitstoot de volledige training van een eenvoudige Transformer zou genereren. Het onderzoek was gebaseerd op de bekroonde taal AI LISA, die de groep zelf had ontwikkeld. Door het LISA-model ongeveer 5.000 keer helemaal opnieuw te trainen, kwam er 280.000 kg CO2 vrij – ongeveer gelijk aan de uitstoot van een Amerikaan van geboorte tot zijn 18e verjaardag. Het is gebruikelijk dat AI-ontwikkelaars hetzelfde model duizenden keren trainen onder licht verschillende omstandigheden om de optimale trainingsomstandigheden, de zogenaamde hyperparameters, te bepalen.
Het zijn echter niet alleen de trainingtijden die relevant zijn voor het hoge energieverbruik, maar alle fasen van de levenscyclus van het AI-model, met name het gebruik ervan. Dit laatste wordt met name belangrijk naarmate de ontwikkeling van de momenteel overwegend tekstgebaseerde applicaties doorgaat naar multimodale toepassingen.
Tekst-naar-afbeeldingsprocessen vergen aanzienlijk meer rekenkracht dan pure tekstcreatie. Een gezamenlijk onderzoek (2024, "Power Hungry Processing: Watts Driving the Cost of AI Deployment?") door Emma Strubell en het Amerikaanse machine learning-bedrijf Hugging Face toonde aan dat 1000 toepassingen van tekstgeneratoren gemiddeld 0,047 kilowattuur verbruiken, terwijl afbeeldingsgeneratoren 2,9 kilowattuur verbruiken – meer dan 60 keer zoveel. De hoeveelheid energie die nodig is voor 1000 door AI gegenereerde afbeeldingen kan, ter vergelijking, een laptop 150 uur van stroom voorzien, 20 kilometer rijden in een elektrische auto of 200 kopjes koffie zetten.
NIEUWE MEGA DATACENTERS. Om te voldoen aan de drastisch groeiende vraag naar energie van generatieve AI, worden wereldwijd steeds krachtigere datacenters gebouwd. "De democratisering van kunstmatige intelligentie (AI) veroorzaakt de grootste verandering in de datacentersector sinds haar ontstaan", schrijven marktanalisten JLL in hun nieuwste sectorrapport. Volgens de JLL Global Data Center Outlook 2025 zullen hyperscaler- en colocatiedatacenters in 2024 wereldwijd goed zijn voor ongeveer 50 gigawatt (GW). De markt zal naar verwachting tot 2027 jaarlijks met ongeveer 15 procent groeien en meer dan 75 GW bereiken. "Terwijl datacenters in 2025 goed waren voor ongeveer twee procent van de wereldwijde energievraag, voorspellen prognoses dat dit aandeel de komende vijf jaar zal verdubbelen", aldus Helge Scheunemann, hoofd onderzoek bij JLL Duitsland.
Een recente analyse van McKinsey concludeert ook dat de explosie aan datacenters die AI ondersteunen niet alleen financiële kosten met zich meebrengt, maar ook hoge milieukosten. In de VS bijvoorbeeld wordt verwacht dat datacenters in 2040 jaarlijks 35 gigawatt aan elektriciteit zullen verbruiken. In 2022 was dit 17 gigawatt. Het probleem: zelfs conservatieve berekeningen van experts laten zien dat de vraag naar AI-gerelateerde energie vanuit datacenters zo snel groeit dat de uitbreiding van hernieuwbare energiebronnen dit tempo niet kan bijbenen. Met als gevolg dat de enorme uitbreiding van datacenters de plannen voor klimaatneutraliteit dwarsboomt.
WATER & ELEKTRONISCH AFVAL. Waterverbruik blijkt ook problematisch in verband met extra, steeds krachtigere datacenters. Het grootste deel hiervan wordt gebruikt voor koel- en bevochtigingssystemen om de optimale bedrijfstemperatuur van de hardware te garanderen. Volgens het bedrijf verbruikt een gemiddeld Google-datacenter 1,7 miljoen liter water per dag. Om dit in perspectief te plaatsen: dit zou de gemiddelde dagelijkse (drink)waterbehoefte van ongeveer 13.000 Oostenrijkers kunnen dekken. Nog een numeriek voorbeeld dat de bijdrage van generatieve AI illustreert: in West Des Moines, Iowa, VS, is de waterbehoefte van Microsoft-datacenters tussen 2021 en 2022 met 34 procent gestegen.
In juli 2022, de maand waarin OpenAI zijn AI-model GPT-4 voltooide, verbruikte Microsoft 11,5 miljoen gallon water ter plaatse – zes procent van het totale waterverbruik van de stad. Volgens verschillende schattingen zou het operationele waterverbruik voor wereldwijd AI-gebruik in 2026 kunnen oplopen tot ongeveer 4,2 tot 6,6 miljard kubieke meter. Dit is ongeveer het dubbele van de totale jaarlijkse waterbehoefte van Oostenrijk (voor industrie, handel, landbouw en watervoorziening).
Dit verdient met name kritische aandacht gezien het dreigende wereldwijde watertekort. Een vijfde van de wereldbevolking woont immers al in gebieden waar meer water wordt verbruikt dan hergebruikt. Ongeveer één op de zes mensen op aarde kampt met ernstige waterproblemen, waaronder ongeveer 15 procent van de plattelandsbevolking.
Het gebruik van grafische kaarten die speciaal zijn ontwikkeld voor AI, zogenaamde GPU's, dreigt ook een controversieel milieuprobleem te vormen. Grafische processoren spelen een cruciale rol in generatieve AI. Alleen al het bedrijf Meta streeft ernaar om tegen eind 2025 meer dan 1,3 miljoen GPU-versnellers in gebruik te hebben, zoals Marc Zuckerberg begin 2025 aankondigde op Threads. Hiervoor wordt een datacenter van twee gigawatt gebouwd in Temple, Texas, dat volgens de CEO van Meta "zo groot is dat het een aanzienlijk deel van Manhattan zou beslaan". GPU's hebben echter een enorme impact op het milieu, van de winning van grondstoffen tot elektronisch afval aan het einde van hun levenscyclus. Sterker nog, de hardware wordt nog steeds nauwelijks gerecycled.
TEGENMAATREGELEN. Terwijl de toepassing van generatieve AI het milieu steeds meer belast, ontstaan er initiatieven om de gehele ontwikkeling in een klimaatvriendelijkere richting te sturen. Een van de meest interessante benaderingen is het AI Energy Star Project, gelanceerd door gerenommeerde onderzoekers en leidinggevenden van Meta, Hugging Face, Salesforce en anderen. Het project is gebaseerd op de Energy Star-classificaties van het Amerikaanse Environmental Protection Agency (EPA), die consumenten een transparante en eenvoudige meting bieden van het energieverbruik van producten, variërend van wasmachines tot auto's.
Het AI Energy Star-project streeft een soortgelijk doel na: ontwikkelaars en gebruikers van AI-modellen helpen bij het beoordelen van energieverbruik. "Door AI-modellen te testen voor een reeks populaire use cases, kunnen we een verwacht bereik van energieverbruik bepalen en de modellen beoordelen op basis van waar ze binnen dat bereik vallen. De modellen die het minste energie verbruiken, krijgen de hoogste score", aldus een artikel in het wetenschappelijke tijdschrift Nature. Dit eenvoudige systeem is bedoeld om gebruikers te helpen snel de modellen te selecteren die het meest geschikt zijn voor hun use case.
De onderzoekers, waaronder AI-expert Emma Strubell, stellen dat “dit eenvoudige systeem modelontwikkelaars zal aanmoedigen om in de toekomst rekening te houden met het milieu en het energieverbruik als belangrijke parameters.”
De pers
energynewsmagazine