De stroomhonger van AI — waarom datacentra de nieuwe staalindustrie zijn

Elke ChatGPT-query gebruikt ongeveer tien keer meer stroom dan een Google-zoekopdracht. Vermenigvuldig dat met miljarden vragen per dag, en je hebt een van de snelst groeiende elektriciteitsvraagstukken sinds de industriële revolutie. Microsoft heropent Three Mile Island voor de stroom.

Elektriciteitscentrale — metafoor voor de enorme energiebehoefte van AI

In 2022 was AI vooral een intellectuele curiositeit. In 2024 werd duidelijk dat het ook een industrie was. In 2026 wordt duidelijk dat het vooral een energievraagstuk is. En een die niemand goed had voorbereid.

De cijfers zijn recent en ongeëvenaard. Volgens het International Energy Agency (IEA) verbruikten datacentra in 2024 ongeveer 2% van de wereldwijde elektriciteit — ongeveer 460 TWh. Voor 2028 schatten ze conservatief 800-900 TWh. Schattingen van andere bronnen zijn hoger, sommige gaan tot 1.500 TWh of zelfs meer. Ter context: dat benadert het totale elektriciteitsverbruik van de hele Europese Unie.

Dat is niet allemaal AI. Maar AI is veruit de snelst groeiende component. Training van frontier-modellen verbruikt enorme hoeveelheden. Inference — het beantwoorden van gebruikersvragen — verbruikt nog meer, want het gebeurt miljarden malen per dag. De groei is exponentieel, op een basis die al onontspannen hoog is.

De wiskunde per query

Het is makkelijk om "een ChatGPT-vraag" licht te nemen. Een paar seconden wachten, tekst verschijnt. Maar achter die ervaring staat een specifieke berekening. Voor een standaardvraag aan GPT-4 schatten onderzoekers dat er ongeveer 2-3 wattuur nodig is. Een Google-zoekopdracht: 0,3 wattuur. Tien keer meer.

Beeldgeneratie verbruikt nog meer. Het produceren van een Dall-E- of Midjourney-beeld kost ongeveer 2-3 kWh — ongeveer duizend keer de zoekopdracht, vergelijkbaar met een uur airconditioning. Video-generatie (Sora, Veo) is exponentieel duurder per product.

Vermenigvuldig die getallen met het gebruik. ChatGPT heeft naar schatting 200+ miljoen dagelijkse gebruikers die elk een handvol vragen stellen. Dat alleen is tientallen GWh per dag — genoeg voor een kleine stad. Claude, Gemini, Copilot, talloze andere AI-diensten — samen vormen ze een zeer grote collectieve stroomvraag.

Training is een andere beast. GPT-4 kostte naar verluidt 50-100 miljoen kWh om te trainen — ongeveer een middelgrote stad een jaar lang. Elk nieuw frontier-model verbruikt substantieel meer. De trend is stevig opwaarts.

Waarom de groei sneller is dan voorspeld

In 2023 voorspelden de grote techbedrijven gematigde groei. Microsoft, Google, Meta en Amazon hadden allemaal klimaatdoelstellingen — carbon-neutraal tegen 2030, of netto-negatief. Hun scenarioplanningen suggereerden dat hernieuwbare energie de groei kon bijhouden.

Twee jaar later blijken die voorspellingen te optimistisch. Microsoft's jaarrapport 2024 liet zien dat hun uitstoot 30% boven hun 2020-basislijn was — ondanks massale hernieuwbare-investeringen. Google rapporteerde vergelijkbare problemen. De reden: AI groeide sneller dan hernieuwbare capaciteit beschikbaar werd. De techbedrijven konden niet snel genoeg schone stroom krijgen.

Dat heeft geleid tot vreemde keuzes. Microsoft heeft in september 2024 aangekondigd dat ze Three Mile Island — de nucleaire centrale die sinds 1979 beroemd is vanwege een incident — willen heropenen om hun datacentrum-stroom te leveren. Het is een 20-jaar-deal. Similarly hebben Google en Amazon deals gesloten met kleinere nucleaire partners (Kairos, X-energy). De nucleaire renaissance die jaren was voorspeld maar niet gekomen, wordt deels mogelijk door AI-gedreven stroomvraag.

De watercrisis

Naast stroom is er een minder besproken probleem: water. Grote datacentra moeten worden gekoeld. Dat gebeurt grotendeels met water — verdamping, koelingstorens, gesloten systemen. Een groot datacentrum kan miljoenen liters per dag verbruiken.

Dit is specifiek problematisch in droge regio's waar veel datacentra staan (Arizona, Texas, Spanje). In Santiago, Chili, leidde Google's plan voor een groot datacentrum tot burgerprotest vanwege waterschaarste-zorgen. Spaanse regio's hebben vergelijkbare conflicten.

Het probleem wordt groter met de hitte van moderne AI-chips. De nieuwste Nvidia H200's en B200's genereren meer warmte dan voorgangers. Koelingsvraag stijgt evenredig. Sommige bedrijven investeren in vloeistof-gekoelde systemen die minder water gebruiken, maar die technologie staat nog in kinderschoenen.

De geopolitieke implicatie

AI-stroomvraag heeft ook geopolitieke gevolgen. Landen met overschot aan goedkope stroom — vooral hernieuwbaar — worden aantrekkelijk voor datacentra. Ierland, dat windenergie heeft, heeft een disproportioneel aantal grote datacentra — ze verbruiken inmiddels 20% van de Ierse elektriciteit. IJsland (geothermisch) groeit snel. De Scandinavische landen (waterkracht) ook.

Voor de VS is het een strategische zorg. Een groot deel van AI-training gebeurt in specifieke regio's (Virginia heeft de hoogste concentratie datacentra ter wereld). De stroomnetten daar zijn onder druk. Plaatselijke bewoners zien energieprijzen stijgen. Politieke spanningen rond "datacentrum-gemeenschappen" nemen toe.

China, met zijn grotere investeringen in nucleair en hernieuwbaar, kan op langere termijn een voordeel hebben. Als Amerikaanse AI-bedrijven stroom-gelimiteerd zijn en Chinese niet, verschuift het competitieve landschap.

Is er een plafond?

Een natuurlijke vraag: is er een punt waarop stroom het tempo van AI beperkt? Het antwoord lijkt ja, maar we weten niet precies waar.

De VS heeft in totaal ongeveer 4.000 TWh aan elektriciteit beschikbaar per jaar. Als datacentra 10% daarvan zouden verbruiken (schatting voor 2028), is dat 400 TWh. Dat is haalbaar met nieuwe capaciteit, maar moeilijk. Als ze 20% zouden verbruiken (extremere schattingen voor 2035), is dat waarschijnlijk niet haalbaar zonder grote uitbreidingen.

Bovendien is stroom niet overal en altijd beschikbaar. Een datacentrum vraagt niet gewoon stroom — het vraagt continu stroom op een specifieke locatie. Dat betekent netwerkcapaciteit, transformators, stabiliteit. Veel gebieden hebben hier al beperkingen.

Sommige analyses suggereren dat 2028-2030 een crisis kan worden. Dat is waarom AI-bedrijven nu al investeren in alles — nucleair, fusie-prototypes (Microsoft heeft een deal met Helion), speciale stroomcontracten, zelfs eigen zonneparken. De race om voldoende stroom is al aan de gang.

Efficiëntie als antwoord?

Een hoopvolle lijn: AI wordt steeds efficiënter. Hetzelfde kwaliteits-niveau kan met minder compute worden bereikt. Kleinere modellen. Betere architecturen. Efficiëntere chips (Groq's LPUs, Cerebras' wafer-scale systems).

Deze efficiëntie-winsten zijn echt. Een moderne Claude Haiku kost een fractie van wat een oudere Claude Opus kostte per query. Energieverbruik per token is gedaald.

Maar er is een probleem: de Jevons-paradox. Als iets efficiënter wordt, wordt het ook meer gebruikt. Betere auto's leidden niet tot minder brandstofverbruik — ze leidden tot meer rijden. Betere LEDs leidden niet tot minder licht-energie-gebruik — ze leidden tot meer verlichting. Efficiëntere AI leidt waarschijnlijk ook tot meer AI-gebruik, waarbij de totale consumptie blijft stijgen.

Dat is ingebouwd in het commerciële model. Zolang AI-diensten goedkoop en schaalbaar zijn, zullen mensen ze meer gebruiken. Efficiëntie creëert dat volume niet — maar ze zal niet vanzelf tot totale besparing leiden.

Wat dit voor klimaat betekent

Hier wordt het ongemakkelijk. AI-bedrijven zeggen dat ze bijdragen aan klimaatoplossingen — betere weersvoorspellingen, efficiëntere supply chains, snellere ontwikkeling van schone technologie. Dat is deels waar.

Maar ze zijn ook zelf een groeiende uitstoter. Als AI-stroomverbruik in 2030 effectief 10% van de wereldwijde elektriciteit wordt, en slechts 60-70% van die stroom schoon is, genereert AI bakken aan extra CO2. De bijdragen aan klimaatoplossingen moeten dan significant zijn om compensatie te bieden.

Het ongemakkelijke is dat we niet precies weten welke van deze effecten groter is. AI helpt waarschijnlijk met sommige klimaatvraagstukken. AI kost zeker veel stroom. Of het totale effect positief of negatief is, hangt af van hoe snel de rekenkracht groeit, hoe schoon de stroom wordt, hoe effectief AI-toepassingen klimaat-probleem oplossen.

In 2026 is het antwoord: onzeker. In 2030 zullen we meer weten.

De bredere vraag

Alles bij elkaar is de stroomcrisis van AI een symptoom van iets groters. We hebben in zeer korte tijd een enorme nieuwe industrie gecreëerd zonder de infrastructuur erachter te plannen. Stroomnetten zijn niet ontworpen voor de vraag die AI creëert. Water-infrastructuur niet. Stedenbouw niet.

We ontdekken de kosten pas tijdens het gebruik. Dat is niet uniek voor AI — we deden het ook met auto's, met plastic, met luchtvaart. Maar AI is zo snel gegroeid dat de vertraging tussen gebruik en inzicht korter is dan ooit.

Dat maakt beleid moeilijk. Tegen de tijd dat we duidelijk zien welke kosten AI oplegt, zijn de systemen al diep verankerd in de economie. Het terugbrengen is moeilijker dan het voorkomen zou zijn geweest. Dat is een klassiek patroon.

Voor wie AI gebruikt of erin werkt, is het goed om dit in beeld te hebben. Elke ChatGPT-vraag is, letterlijk, een klein stukje stroom ergens ter wereld. Vermenigvuldigd met miljarden, is dat een industriële schaal. De schoonste bron van die stroom — dat is nog steeds onze keuze. Maar dat we veel stroom nodig hebben, is inmiddels een feit.

AI is niet meer alleen software. Ze is fysieke infrastructuur, draaiend op andere fysieke infrastructuur, met een ecologische voetafdruk die meegroeit met haar succes. In 2026 beginnen we dat ongemakkelijk te erkennen. In 2030 kan het een van de dominerende thema's zijn rond hoe we AI verder laten groeien — of beperken.

Hoe dan ook: de stille revolutie van denkende machines loopt op hele luide elektriciteit. Dat was niet het verhaal dat in 2022 werd verteld. Het is wel het verhaal waarin we inmiddels staan.

Veelgestelde vragen

Hoeveel verbruikt een ChatGPT-query écht?+

Schattingen variëren, maar ongeveer 2-3 Wh per query — ongeveer 10x een Google-zoekopdracht. Beeldgeneratie verbruikt nog meer. Training van grote modellen verbruikt tientallen miljoenen kWh.

Is AI klimatologisch een ramp?+

Gemengd. De stroom komt deels uit hernieuwbare bronnen (Google, Microsoft investeren massaal in zonne- en windenergie). Maar de snelheid van groei overstijgt hernieuwbare capaciteit. Netto impact: tech-bedrijven hebben hun klimaatdoelen niet gehaald.

Waarom heropent Microsoft Three Mile Island?+

Nucleaire energie biedt stabiele 24/7 baseload die zonne- en windenergie niet bieden. AI-datacentra hebben continu stroom nodig. Microsoft heeft een 20-jaar deal gesloten om de gestopte reactor weer operationeel te maken — een opmerkelijke ontwikkeling.

Wat doen efficiëntere modellen?+

Helpt, maar niet genoeg. Efficiënter per query, maar het aantal queries groeit sneller. Een verdubbeling in efficiëntie wordt vaak gevolgd door een verviervoudiging in gebruik — een nieuw voorbeeld van de Jevons-paradox.

Deel dit artikel
X / Twitter ↗ Facebook ↗ Mail ↗
Laten we praten

Vragen die je eigen project betreffen?

Elke call begint met luisteren. Vertel waar je staat, dan denken we samen verder.

Binnen 24u een reactie. Altijd persoonlijk.