Amazon is vast van plan om de koers voor AI-infrastructuur naar een hoger niveau te tillen. Volgens recent gepubliceerde informatie verwacht het bedrijf om de kapitaaluitgaven (capex) tot 2026 te verhogen tot maar liefst 200 miljard dollar, een doel dat vooral gericht is op uitbreiding van AWS data centers, versterking van netwerken en het verder ontwikkelen van eigen chips voor AI. Deze stap weerspiegelt een steeds ongemakkelijkere realiteit voor de sector: in de cloud is de grote bottleneck niet langer alleen de software, maar de fysieke capaciteit.
De boodschap die Amazon uitzendt is duidelijk. Bedrijven gaan van proefprojecten naar AI in productie, en dat brengt een exponentiële toename in gebruik van computationele kracht, opslag, netwerken en vooral energie met zich mee. Het gaat niet alleen om “GPU’s hebben”: er zijn volledige racks nodig, koeling, glasvezel, schakelaars, elektrische contracten en strategische planning op jaarbasis. In dat scenario legt Amazon de nadruk op bouwen voordat de vraag het systeem overstijgt.
Van 131 miljard tot 200 miljard dollar: capex als thermometer voor AI-gekheid
Reuters plaatst de start in 131 miljard dollar capex in 2025 en de sprong naar 200 miljard dollar in 2026, wat neerkomt op een groei van meer dan 50%. Deze versnelling verklaart waarom Wall Street elk investeringsnieuws met een mengeling van fascinatie en nervositeit beoordeelt: de markt verlangt groei, maar eist ook dat de uitgaven zich vertalen in duurzame inkomsten.
In de door Reuters aangehaalde beleggerscall verdedigde Andy Jassy dat AWS nog steeds sterk groeit en benadrukte een belangrijk punt: het vergelijken van procentuele groei zonder naar de onderliggende cijfers te kijken, kan een vertekend beeld geven. In het laatste kwartaal rapporteerde AWS inkomsten van 35,6 miljard dollar, met een 24% jaar-op-jaar groei, terwijl Google Cloud en Azure sneller groeiden in percentage, zij het op kleinere basis. Met andere woorden: AWS versnelt niet het snelst, maar heeft een veel langere achterstand goed te maken.
Tabel — Capex Amazon en AWS-groei (recente publieke data)
| Indicator | Getal |
|---|---|
| Capex 2025 (Amazon) | 131 miljard dollar |
| Capex 2026 (Amazon, geschat) | 200 miljard dollar |
| Benaderende verandering | +52,7% |
| AWS-inkomsten (recent kwartaal) | 35,6 miljard dollar |
| Jaarlijkse groei AWS (recent kwartaal) | +24% |
De “AI-cloud” verandert de spelregels: meer energie, meer netwerken, meer chips
Jarenlang werd cloud-uitbreiding gezien als een migratieproces: servers van on-premise naar cloudproviders verhuizen. AI heeft die verhaallijn doorbroken. Het trainen en inzetten van moderne modellen verhoogt drastisch het gebruik van rekenkracht en netwerken, en vereist een volledige herziening van alles eromheen: van datacenter-topologie tot thermisch ontwerp.
Bovendien probeert Amazon niet alleen afhankelijk te blijven van externe silicium. Haar chips Trainium en Inferentia – gericht op training en inferentie – vormen een onderdeel van een strategie om kosten en beschikbaarheid te optimaliseren in een markt waar gespecialiseerde hardware schaars wordt. Capex wordt daarmee niet alleen meer “gebouwen toevoegen”, maar ook meer platformengineering, lagere latentie-netwerken en versterking van componenten die het pad van data naar beslissing verkorten.
Een race tussen hyperscalers, met een waarde van honderden miljarden dollars
Amazon is niet de enige. Bridgewater schat dat Alphabet, Amazon, Meta en Microsoft samen in 2026 mogelijk ongeveer 650 miljard dollar in AI-infrastructuur zullen investeren, tegenover 410 miljard dollar in 2025. Dit wijst op een meer risicovolle fase: de vraag naar rekenkracht blijft groter dan het aanbod, en de sector versnelt haar uitgaven om bij te benen.
Die dynamiek heeft een domino-effect. Hoe meer wordt geïnvesteerd, hoe sterker de druk op toeleveringsketens, industrieterreinen, vergunningen, energievoorziening en prijzen. Aan de andere kant wordt de afhankelijkheid groter: als een bedrijf haar cloud-AI-operationele afhankelijkheid opbouwt, worden beschikbaarheid van capaciteit en veerkracht geen technische details meer, maar bedrijfskritische eisen.
Wat betekent dit voor bedrijven: capaciteit, tijdlijnen en strategische keuzes
Voor zakelijke klanten biedt de aankondiging een praktische interpretatie: Amazon gelooft dat de vraag zal blijven groeien en probeert te voorkomen dat AWS een bottleneck wordt. Als de investeringen leiden tot meer effectieve capaciteit, kunnen organisaties verwachten dat:
- Het makkelijker wordt om IA-projecten op te schalen (van proef naar productie) zonder tegen infrastructurele limieten aan te lopen.
- Meer architectuuropties, zeker als AWS de beschikbaarheid en volwassenheid van haar eigen AI-hardware verder uitbreidt.
- Een cloud die steeds meer een “automatiseringsplatform” wordt, niet enkel hosten – de infrastructuur wordt onderdeel van het product.
Toch is er ook een impliciete waarschuwing: als de industrie de adoptiesnelheid of toekomstige winstgevendheid verkeerd inschat, kunnen de kosten voor het onderhouden van die infrastructuur de marges en prijzen onder druk zetten. Het debat verschuift daarmee van puur technisch naar financieel en operationeel.
De grote transformatie in 2026 is niet dat “de cloud AI mogelijk maakt”. Het is dat AI de cloud dwingt zich te gedragen als een zware industrie: met schaalinvesteringen bijna als bij elektriciteit, lange-termijn planning en een stille strijd om de fysieke middelen die software laten functioneren.
Veelgestelde vragen
Wat betekent “capex” bij AWS en waarom is het belangrijk voor generatieve AI-projecten?
Capex is de uitgaven voor infrastructuur (datacenters, servers, netwerk, chips, etc.). Bij generatieve AI is het cruciaal omdat het aangeeft hoeveel capaciteit er echt beschikbaar is voor het trainen en uitvoeren van grootschalige modellen.
Hoe beïnvloeden AWS’s Trainium- en Inferentia-chips de AI-kosten in de cloud?
Het zijn door Amazon ontworpen hardware om training en inferentie te optimaliseren. Bij brede adoptie kunnen ze helpen beschikbaarheid te verbeteren en kosten te drukken ten opzichte van externe alternatieven, afhankelijk van de belasting en software.
Kan deze uitbreiding de problemen met “GPU-capaciteit” in de cloud verminderen?
Dat is het doel: meer datacenters en een bredere platformuitrol moeten de druk verlichten. Maar de vraag groeit nog steeds snel, waardoor het aanbod nog steeds onder druk kan blijven staan tijdens pieken.
Wat moeten CIO’s en platformteams in overweging nemen bij het plannen van AI-strategieën voor 2026–2027?
Investeer in veerkracht: multi-regioplanning, kostenbewaking, capaciteitstoezeggingen en een realistische beoordeling van afhankelijkheden (model, data, netwerk, latency, provider).
