Meta heeft zijn samenwerking met CoreWeave uitgebreid met een nieuwe infrastructuurovereenkomst voor AI ter waarde van ongeveer 21 miljard dollar met een looptijd tot december 2032. De door CoreWeave aangekondigde en ook gedetailleerde in een document dat naar de SEC is gestuurd, versterkt de positie van het bedrijf als een van de grote aanbieders van cloudcapaciteit gespecialiseerd in grootschalige AI-workloads.
De overeenkomst begint niet vanaf nul. Volgens de regelgevende melding is de nieuwe bestelling ondertekend op 31 maart 2026 en maakt deze deel uit van een bestaande raamovereenkomst tussen beide bedrijven, gedateerd op 10 december 2023. Het bedrag van 21 miljard dollar omvat zowel toegang tot nieuwe rekenkracht tot 20 december 2032 als de uitoefening van een eerdere optie voor aanvullende capaciteit in een voorgaand contract dat geldig is tot 10 april 2032.
Wat technisch opvalt, is dat de toegewezen capaciteit zal worden ingezet op meerdere locaties. Daarnaast zal het een van de eerste implementaties bevatten van het NVIDIA Vera Rubin-platform, de volgende grote generatie van versnelde infrastructuur van Jensen Huang’s bedrijf. CoreWeave heeft niet publiekelijk bekendgemaakt hoeveel systemen of welke exacte configuraties deel uitmaken van deze overeenkomst, maar het feit dat Meta vroegtijdig toegang heeft tot Rubin onderstreept dat de strijd om de volgende golf van AI-computing al ver voor de massale marktintroductie van hardware plaatsvindt.
De boodschap is duidelijk: inferentie is de toekomst
De eigen verklaring van CoreWeave benadrukt een steeds belangrijker wordend concept in de industrie: inferentie. Meta zal gebruik maken van het cloudplatform van CoreWeave om inferentielast te schalen, dat wil zeggen, de daadwerkelijke uitvoering van al getrainde modellen in productiescenario’s. Dit is significant omdat de conversatie over AI lange tijd vooral gericht was op het trainen van grote modellen, terwijl de knelpunt nu verschuift naar het moment waarop deze modellen moeten reageren, content genereren of diensten leveren aan miljoenen gebruikers.
Deze verschuiving verandert de economie van infrastructuur aanzienlijk. Het trainen van een fundamenteel model blijft kostbaar, maar het op grote schaal inzetten ervan vereist mogelijk nog meer operationele continuïteit, energie-efficiëntie, lage latentie en een stabiele geleiding van GPU’s. Voor Meta, dat AI integreert in producten zoals Facebook, Instagram, WhatsApp, Messenger en slimme wearables, is het garanderen van inferentiecapaciteit geen luxe, maar een industriebehoefte. Reuters meldde eerder dat het bedrijf naar verwachting in 2026 tussen de 115 miljard en 135 miljard dollar zal investeren in zijn AI-infrastructuur om dit te versnellen.
CoreWeave wint aan gewicht ten opzichte van de traditionele cloud
De overeenkomst versterkt ook een steeds zichtbaarder wordende trend: de opkomst van specialistische AI-clouds. Deze concurreren om een deel van de markt die voorheen grotendeels in handen was van de grote hyperscalers. CoreWeave positioneert zich als een “AI cloud” die specifiek is gebouwd voor deze workloads, in tegenstelling tot een algemene cloud die later is aangepast voor AI-fieber. Volgens de eigen positionering richt deze specialisatie zich op het aantrekken van grote laboratoria, startups en toonaangevende techbedrijven.
De afgelopen dagen kondigde CoreWeave meerdere grote samenwerkingen aan. Na de versterking van de overeenkomst met Meta volgde een meerjarige overeenkomst met Anthropic, gericht op het ondersteunen van de familie van modellen, waaronder Claude. De markt begrijpt het duidelijk: CoreWeave wil zich vestigen als een centrale speler in AI-infrastructuur, niet slechts als een opportunistische leverancier van gehuurde GPU’s.
Vanuit technologisch perspectief is er nog een belangrijke implicatie. Het gedistribueerde deployment “over multiple locations” van CoreWeave suggereert een architectuur gericht op het >maximaliseren van prestaties, veerkracht en schaalbaarheid. Dit sluit aan bij de huidige sectortrend: grote AI-workloads vereisen niet meer alleen grote capaciteit in één datacenter, maar ook geotraficeerde distributie, redundantie en een netwerk dat enorme datastromen kan afhandelen zonder in te leveren op snelheid.
Vera Rubin komt eerder dan verwacht in beeld
De verwijzing naar NVIDIA Vera Rubin is waarschijnlijk de meest strategische detail van de aankondiging. NVIDIA presenteerde Rubin als de volgende grote platformgeneratie voor AI, na Blackwell, met als doel nog verder te gaan in zowel training als inferentie. Dat Meta een deel van deze eerste implementaties heeft veiliggesteld via CoreWeave, geeft twee belangrijke signalen: ten eerste dat toegang tot de nieuwe hardware al wordt afgesloten via meerjarige overeenkomsten; en ten tweede dat leveranciers als CoreWeave een belangrijke rol spelen als voorkeurskanalen voor het snel op productie brengen van dit geavanceerde silicium.
Dit verklaart ook waarom de AI-cloud een heel andere markt is dan de traditionele cloud. Hier wint niet alleen degene die meer regio’s of gemanagede diensten heeft, maar degene die het eerst toegang krijgt tot de meest gewilde hardware, voorzien van energie, netwerken, koeling en software. Het recente nieuws rond Meta onderstreept het vertrouwen dat grootse technologische projecten in deze markt krijgen door de snelle toegang tot de nieuwste generatie hardware.
Kortom, Meta doet niet alleen een capaciteitsinkoop. Het verzekert zich van een aandeel in de directe toekomst van AI-infrastructuur, tijdens een periode waarin inferentie sneller groeit dan ooit tevoren, en de volgende generaties GPU’s al bijna hun weg vinden naar productie, nog voordat ze massaal beschikbaar zijn. Voor CoreWeave bevestigt deze overeenkomst haar positionering. Voor de sector bewijst het dat de oorlog om AI grotendeels in de infrastructuur wordt beslist: wie controle krijgt over de rekenkracht die echte werking mogelijk maakt, wint de strijd.
Veelgestelde vragen
Wat is de waarde van de nieuwe overeenkomst tussen Meta en CoreWeave?
Volgens CoreWeave en documenten die naar de SEC zijn gestuurd, is de initiële waarde ongeveer 21 miljard dollar.
Hoe lang duurt het contract tussen Meta en CoreWeave?
De nieuwe toegang tot capaciteit loopt tot 20 december 2032, inclusief een optie die geldig is tot 10 april 2032.
Waarvoor zal Meta deze infrastructuur gebruiken?
Meta zal deze vooral inzetten voor schaling van AI-inferentielasten, dat wil zeggen, het uitvoeren van modellen in echte productiescenario’s.
Welke rol speelt NVIDIA Vera Rubin in deze overeenkomst?
Een deel van de capaciteit omvat enkele van de allereerste implementaties van het NVIDIA Vera Rubin-platform, de komende grote generatie versnelde AI-infrastructuur.
