CoreWeave heeft een belangrijke stap gezet in de race om de infrastructuur voor geavanceerde kunstmatige intelligentie (AI) modellen te domineren. Het bedrijf is een van de eerste cloudproviders die op grote schaal NVIDIA GB200 NVL72-systemen in productie heeft genomen voor klanten, waaronder Cohere, IBM en Mistral AI, die tot de eerste gebruikers behoren. NVIDIA en CoreWeave presenteerden deze uitrol als het echte begin van een nieuwe fase: de overgang van hardwareaankondigingen naar het daadwerkelijke gebruik ervan voor training, inferentie en AI-agenten in productieomgevingen.
De betekenis van deze beweging ligt niet alleen in het aantal GPU’s, maar vooral in het type systeem dat wordt ingezet. GB200 NVL72 is geen gewone serverinstantie in het standaardaanbod van accelerators, maar een rack-scale platform dat 72 Blackwell GPU’s en 36 Grace CPU’s verbindt binnen hetzelfde NVLink-domein, met NVIDIA Quantum-2 InfiniBand-netwerken voor het opschalen van de cluster. CoreWeave was al de eerste cloudprovider die aankondigde dat GB200 NVL72-instanties algemeen beschikbaar waren, en nu is de boodschap dat deze machines niet langer alleen op papier klaarstaan: ze draaien inmiddels echte workloads van enkele van de meest prominente namen in de AI-markt.
Het gaat niet alleen om brute kracht: het is een strijd om de volledige rack
Jarenlang werd de concurrentiestrijd in de cloud rondom AI vooral geleid op basis van het aantal GPU’s. Met Grace Blackwell probeert NVIDIA de focus te verleggen naar het gehele systeem: onderlinge connectiviteit, gedeeld geheugen, netwerk-topologie, datastromen en de mogelijkheid om als één logische machine op rack-schaal te opereren. CoreWeave positioneert zich daarbij als de voorloper die snel inzet, klaar is voor de overgang en geen maanden wil wachten tot het ecosysteem volwassen is geworden — klaar om te leveren aan laboratoria en bedrijven die directe resultaten eisen.
Die positionering is strategisch zeer helder. In de AI-cloud volstaat het niet meer om slechts GPU’s of generieke clusters aan te bieden. Geavanceerde klanten zoeken nu naar architecturen die klaar zijn voor reasoning, agents en steeds grotere modellen, waarin de bottleneck niet alleen in de chip ligt, maar vooral in de manier waarop het hele systeem functioneert wanneer duizenden accelerators samenwerken. CoreWeave probeert al geruime tijd haar merk te bouwen rond het concept van een “AI hyperscaler”, en de uitrol van GB200 NVL72 is waarschijnlijk een van de meest zichtbare bewijzen van die strategie.
Wat doen Cohere, IBM en Mistral met Blackwell?
NVIDIA wil het nieuws ondersteunen met concrete gebruikstoepassingen, en daarom komen hier drie namen die inzicht geven in het soort klanten dat CoreWeave aanspreekt. Cohere gebruikt deze systemen voor het ontwikkelen van veilige bedrijfsapplicaties en gepersonaliseerde agents binnen hun North-platform. Volgens NVIDIA ziet het bedrijf tot 3 keer betere prestaties in training voor modellen van 100 miljard parameters, vergeleken met de Hopper-generatie, zelfs zonder speciale optimalisaties voor Blackwell.
IBM maakt gebruik van een van de eerste grootschalige uitrols van GB200 NVL72 met duizenden GPU’s voor het trainen van de volgende generatie Granite-modellen, hun open source en bedrijfsgerichte modelfamilie. De relatie met CoreWeave beperkt zich niet alleen tot computing; IBM brengt ook haar Storage Scale System in als high-performance opslaglaag voor AI, een samenwerking die al in januari 2025 werd aangekondigd toen beide bedrijven het supercomputersysteem ontvouwden dat CoreWeave aan IBM zou leveren.
Mistral AI heeft inmiddels haar eerste duizend Blackwell GPU’s ontvangen om de ontwikkeling van nieuwe open modellen te versnellen. In de aankondiging van NVIDIA zegt co-founder en CTO Timothée Lacroix dat ze een prestatieverbetering van 2 keer hebben gezien in het trainen van grote modellen “recht uit de doos”, zonder aanvullende aanpassingen. Het Franse bedrijf werkte al samen met CoreWeave, maar deze nieuwe infrastructuur maakt het mogelijk om training en inferentie op een nog grotere schaal uit te voeren.
Tabel: overzicht van de eerste uitrol van GB200 NVL72 bij CoreWeave
| Klanten | Belangrijkste gebruik | Bijzonderheid |
|---|---|---|
| Cohere | Training en inferentie voor bedrijfs-AI en agents met North | Tot 3 keer meer prestaties in training voor modellen van 100 miljard parameters ten opzichte van Hopper, volgens NVIDIA |
| IBM | Training van de volgende generatie Granite | Opschaling tot duizenden Blackwell GPU’s en ondersteuning van IBM Storage Scale System |
| Mistral AI | Training en uitrol van nieuwe open modellen | Verdubbeling in training van grote modellen zonder extra optimalisaties, volgens NVIDIA |
| CoreWeave | Cloud-aanbod op rack-schaal voor AI | Instellingen met 72 Blackwell GPU’s en 36 CPU’s Grace; opschaling tot 110.000 GPU’s met Quantum-2 InfiniBand |
De gegevens in deze tabel vertegenwoordigen geen onafhankelijke benchmarks, maar cijfers en beschrijvingen uit officiële aankondigingen van NVIDIA, CoreWeave en IBM. Desalniettemin geven ze een goed beeld van waar de focus ligt: minder marketing en meer gerichte communicatie over daadwerkelijke workloads, concrete klanten en prestatieverbeteringen die nu al zichtbaar zijn.
De kernboodschap: AI in de cloud gaat de industriële fase in
Een bijkomend belangrijke nuance: CoreWeave presenteert niet enkel premium-instances voor een selecte groep klanten, maar een infrastructuur die volgens eigen documentatie kan opschalen tot 110.000 Blackwell GPU’s met InfiniBand Quantum-2. Tegelijkertijd presteert het bedrijf al recordresultaten in inferentie met Grace Blackwell binnen de MLPerf-benchmark, waarmee het wil aantonen dat het niet alleen om capaciteit gaat, maar vooral om meetbare prestaties.
Dit past binnen een bredere marktverandering. Het gesprek over AI verschuift van “wie heeft toegang tot GPU’s” naar “wie kan complete AI-fabrieken in productie brengen”, met vooraf geïntegreerde racks, gedeeld geheugen, netwerken, opslag en beheersoftware klaar voor de implementatie van toprendementmodellen. NVIDIA spreekt van “AI-fabrieken”, CoreWeave focust op snelle uitrol, en klanten als IBM, Cohere en Mistral benadrukken doorvoer, kosten en doorlooptijd tot de eerste reactie. Het zijn verschillende manieren om hetzelfde fenomeen te beschrijven: AI wordt niet meer uitsluitend in laboratoria ontwikkeld, maar in industriële infrastructuur.
De grote vraag is nu niet of Blackwell in de cloud zal komen — dat is al gebeurd — maar welke leveranciers in staat zullen zijn om dat vroege voordeel om te zetten in een blijvend concurrentievoordeel. CoreWeave heeft zich met GB200 NVL72 in de voorhoede geplaatst. De komende uitdaging ligt in het vasthouden van dat voordeel wanneer de markt reageert met vergelijkbare uitrols, meer capaciteit en waarschijnlijk een nieuwe prijs- en prestatiewaardeoorlog in AI-clouds.
Veelgestelde vragen
Wat is precies NVIDIA GB200 NVL72?
Het is een rack-scale platform van NVIDIA dat 72 Blackwell GPU’s en 36 Grace CPU’s integreert in één systeem, via NVLink verbonden, ontworpen voor training, inferentie, reasoning en grote AI-agenten.
Waarom is het belangrijk dat CoreWeave het in productie heeft genomen?
Omdat de overgang van aankondiging naar echt gebruik door klanten als Cohere, IBM en Mistral bewijst dat het platform nu met daadwerkelijke workloads draait en niet alleen in tests of demo’s.
Welke verbeteringen hebben de eerste klanten gemeld?
Cohere meldt tot 3x beter training op modellen van 100 miljard parameters, Mistral spreekt van een 2x versnelde training van grote modellen zonder extra optimalisaties, en IBM benadrukt de verwachte versnelling voor haar Granite-familie.
Hoe ver kan deze infrastructuur van CoreWeave opschalen?
CoreWeave stelt dat haar Blackwell-instanties op GB200 NVL72-systeem kunnen opschalen tot 110.000 GPU’s, verbonden via NVIDIA Quantum-2 InfiniBand.
vía: blogs.nvidia
