Het gebruik van Kunstmatige Intelligentie (AI) is tegenwoordig verrassend eenvoudig geworden. Het volstaat om een applicatie te openen, een verzoek te typen en enkele seconden te wachten. Van buitenaf lijkt het bijna een triviaal handeling: een prompt wordt ingevoerd en een antwoord verschijnt. Maar die schijnbare eenvoud verbergt een complexe industriële structuur: datacenters, netwerken, elektriciteit, koeling, gespecialiseerde chips en miljarden dollars aan investeringen. Niemand zet deze infrastructuur op uit puur technologische romantiek.
De popularisering van generatieve AI heeft een gevaarlijke illusie gewekt: dat toegang goedkoop is omdat het voor de gebruiker ook laagdrempelig is. Maar de comfort van een prompt betekent niet dat de onderliggende kosten irrelevant zijn. Volgens het Internationale Energieagentschap (IEA) is de elektriciteitsvraag van datacenters in 2025 gestegen tot ongeveer 485 TWh, met een koers richting 950 TWh in 2030. Daarnaast groeide het energieverbruik van AI-gerichte datacenters in 2025 met maar liefst 50%. Dit is geen technologische anekdote, maar een nieuwe industriële laag met directe gevolgen voor het elektriciteitsnet, investeringen en marges.
Het probleem ligt niet bij de prompt, maar bij de schaal
Het is belangrijk een vaak overdreven idee te nuanceren dat op sociale media wordt geuit. Niet elke individuele query verbruikt afzonderlijk enorme hoeveelheden energie. Epoch AI schatte bijvoorbeeld in 2025 dat een typische vraag aan ChatGPT met GPT-4 ongeveer 0,3 Wh verbruikte, wat ruim onder eerdere schattingen lag die maanden circuleerden. Recente academische onderzoeken bevestigen dat het energieverbruik per query meestal slechts enkele wattuur bedraagt, afhankelijk van het model, de lengte en de infrastructuur. Het echte probleem ligt niet in de eenheid, maar in de grote en voortdurende schaal van het gebruik.
Dat verandert de hele perspectief. Wanneer een tool van duizenden tot miljoenen of zelfs miljarden queries per dag bedient, wordt het kostenplaatje voor elke aanvraag een kritieke bedrijfsfactor. Het IEA benadrukt dat AI nu de belangrijkste drijfveer is achter de groei van energieverbruik in datacenters. Verder zullen de VS en China gezamenlijk ongeveer 80% van de wereldwijde toename tot 2030 voor hun rekening nemen, terwijl Europa eveneens een stevige groei doormaakt.
Daarom is de race niet beperkt tot het ontwikkelen van modellen, maar ook in het opbouwen van infrastructuur die deze kan ondersteunen. Amazon-topman Andy Jassy vertelde in zijn brief aan de aandeelhouders in 2025 dat het bedrijf in 2026 ongeveer 200 miljard dollar in capex verwacht te investeren, grotendeels gericht op AWS en AI-vraag. Microsoft kondigde in januari 2026 een kwartaalinvestering van 37,5 miljard dollar aan, waarvan circa tweederde bestemd is voor kortstondige activa zoals GPU’s en CPU’s. Alphabet voorziet voor 2026 een capex tussen 175 en 185 miljard dollar, vooral voor technologische infrastructuur voor AI.
Een gigantische industrie vermomd als eenvoud
De hype rond AI is vooral visueel bedrieglijk. De gebruiker ziet een schone interface en een invoerbox. De operator daarentegen ziet: energievoorziening, snelle netwerken, chip-leveringsketens, vloeibare koeling, langlopende contracten en capaciteitsplanning. Het verschil tussen deze twee perspectieven verklaart waarom de markt zich uiteindelijk zal aanpassen: bedrijven investeren niet miljarden dollars om eindeloos capaciteit weg te geven.
In de cloud-infrastructuursector is die spanning duidelijk zichtbaar. Recent onderzoek door David Carrero, medeoprichter van Stackscale (Aire Group), vat het samen: “AI test de zwakste punten van de architectuur: kosten per gebruik, latentie en controle. Wanneer inferentie dagelijks en kritiek wordt, heb je voorspelbaarheid en governance nodig, niet alleen snelheid om een pilot te lanceren.”
Deze uitspraak kent dieperliggende betekenissen. Tijdens de eerste enthousiaste fase dachten veel bedrijven dat simpelweg modellen koppelen, testen en opschalen voldoende was. Maar dagelijkse inferentie, RAG-systemen (Retrieval-Augmented Generation), traceerbaarheid, terugkoppelingsloops en integratie in kritieke omgevingen maken AI een structurele last. Het wordt geen experimenteel speeltje meer, maar een architecturale uitdaging. En dat betekent dat kosten niet langer abstracte facturatieposten zijn, maar strategische beslissingen over de infrastructuur.
Energie, GPU’s en datacenters: de werkelijke bottleneck
Een andere fysieke beperking is duidelijk zichtbaar. Carrero waarschuwde in een ander datacenter-onderzoek dat AI-racks nu al >70-80 kW per rack kunnen verbruiken, aanzienlijk hoger dan wat gebruikelijk was bij traditionele systemen. Die dichtheid dwingt tot herziening van elektrische verdeling, stroomvoorziening en koelingssystemen. Waar vroeger 10-15 kW per rack normaal waren, speelt nu in bepaalde toepassingen meer dan 40 kW. Dit is geen kwestie die met software te oplossen is.
Het IEA bevestigt en versterkt deze trend met wereldwijde cijfers: in hun basisscenario zal de elektriciteitsvraag voor datacenters stijgen van 460 TWh in 2024 naar meer dan 1.000 TWh in 2030. Ongeveer de helft van deze toename wordt door hernieuwbare energiebronnen gedekt, maar gaskracht, kolen en nucleair blijven belangrijke aandeelhouders. Kort samengevat: AI drijft een industriële uitbreiding die onlosmakelijk verbonden is met energiedebat.
Daarnaast speelt locatie een grote rol. Hoewel de VS qua volume voorloper blijft en China snel groeit, probeert Europa capaciteit op te bouwen op een manier die goed is voor nationale belangen, kosten en regelgeving. AI lijkt daarmee meer op een kapitaalintensieve industrie, vergelijkbaar met andere technologische revoluties, waarin eerst wordt gebouwd en later wordt geëxploiteerd.
De echte uitdaging: nog niet winstgevend
Dit is misschien wel de kern van de zaak. Grote delen van de markt investeren nog steeds vooral om zich te positioneren, marktaandeel te verwerven en door schaalvoordelen. Maar dat cycli is niet eindeloos. De technologische geschiedenis herhaalt zich: eerst volgt een fase van agressieve expansie, daarna komt de druk om rendement te demonstreren. Wanneer monetisatie actueel wordt, veranderen prijzen, prioriteiten en de bereidheid tot het tolereren van minder winstgevende toepassingen.
Dit betekent niet dat AI snel stopt of dat het huidige model meteen onhoudbaar is. Maar het wijst wel op een simpele realtime realiteit: de markt zal steeds meer onderscheid maken tussen toepassingen met hoge waarde en die met triviaal verbruik, tussen opvallende pilots en duurzame implementaties. Wat nu nog goedkoop lijkt, zal zich uiteindelijk meer gaan gedragen als een dure digitale nutsvoorziening, gestuurd door energiekosten, capaciteitverplichtingen en strengere bedrijfsmodellen.
In deze ontwikkeling zal AI onverminderd groeien. Maar het zal geleidelijk minder gratis ogen, en meer als een dure, gereguleerde infrastructuur.
Veelgestelde vragen
Verbruikt elke AI-prompt veel energie op zich?
Niet noodzakelijk. Recente schattingen, zoals die van Epoch AI voor GPT-4, plaatsen het energieverbruik per prompt rond 0,3 Wh. Het echte vraagstuk is niet de individuele query, maar de enorme volume en de infrastructuur die nodig zijn om dit mogelijk te maken.
Waarom wordt gesteld dat AI geen magie is, maar infrastructuur?
Omdat achter elke AI-dienst datacenters, GPU’s, netwerken, elektriciteit, koeling en miljarden dollars aan kapitaalinvesteringen schuilen. Grote aanbieders investeren recordbedragen om capaciteit uit te breiden.
Hoe snel groeit het elektriciteitsverbruik door AI?
Volgens het IEA groeide het totale datacenterverbruik met 17% in 2025, terwijl AI-gerichte datacenters met 50% toenamen. De verwachting is dat de totale vraag tegen 2030 bijna verdubbelt.
Welke rol speelt privé- of hybride infrastructuur in dit geheel?
Volgens David Carrero, medeoprichter van Stackscale, worden bij kritische, dagelijkse inferentietaken steeds meer rekening gehouden met parameters als kosten per gebruik, latentie en controle. Dit bevordert de ontwikkeling van private en hybride architecturen voor AI-werkbelastingen.
