CoreWeave leidt de weg in cloud-infrastructuur voor kunstmatige intelligentie
In een belangrijke stap voorwaarts in de wereld van kunstmatige intelligentie, heeft CoreWeave (Nasdaq: CRWV) zich gepositioneerd als de eerste cloudprovider ter wereld die de NVIDIA GB300 NVL72 platform inzet. Deze rack-oplossing integreert de gloednieuwe Blackwell Ultra GPU’s, waarmee CoreWeave de concurrentie op het gebied van versneld rekenen overtreft, met bedrijven zoals AWS, Google Cloud en Microsoft Azure.
Een ongekende prestatieverbetering
De GB300 NVL72 markeert een aanzienlijke ontwikkeling binnen de Blackwell-architectuur van NVIDIA. De indrukwekkende specificaties zijn als volgt:
- Tot 10× snellere responstijden voor conversatie-agenten.
- 5× meer prestatie per watt in vergelijking met Hopper (H100).
- 50× meer inference-throughput voor redeneermodellen.
Elk NVL72-systeem bestaat uit:
- 72 NVIDIA Blackwell Ultra (GB200) GPU’s voor FP4 inferentie en FP8 training.
- 36 Grace CPU’s (gebaseerd op ARM Neoverse) voor controle- en algemene rekenwerkzaamheden.
- 36 DPUs BlueField-3, met geavanceerde netwerkmogelijkheden en beveiliging.
- Een interconnectie van 14,4 GB/s per GPU via NVLink en NVSwitch.
Met een inferentiecapaciteit van 1,1 exaFLOPS FP4 per rack, behoort CoreWeave tot de meest krachtige systemen die publiekelijk beschikbaar zijn. Ter vergelijking: het DGX GH200-systeem van NVIDIA, dat in 2024 werd gepresenteerd, biedt 8 TB gedeelde geheugen, maar met een hoger energieverbruik en minder rack-naar-rack integratie.
Vergelijking met andere hyperscalers
Leverancier | Referentie GPU | Jaar | Inferentiecapaciteit (FP4) | Tijd Llama 3 (405B) | Koeling |
---|---|---|---|---|---|
CoreWeave | GB300 NVL72 (72x B200) | 2025 | 1,1 exaFLOPS/rack | 27,3 min | Gepersonaliseerd water |
AWS | Trn2 Accelerator | 2024 | 0,3 exaFLOPS (geschat) | ~55 min | Standaard lucht |
Microsoft Azure | ND MI300x v5 (AMD) | 2024 | 0,8 exaFLOPS/rack (FP8) | ~33 min | Dompello-efficiënt water |
Google Cloud | TPU v5p | 2024 | 0,5 exaFLOPS (bfloat16) | ~45 min | Vloeistofkoeling |
CoreWeave overtreft niet alleen zijn concurrenten in brute kracht, maar ook qua energie-efficiëntie en uitrolsnelheid. Terwijl AWS en Microsoft samenwerken met AMD en op maat gemaakte chips, blijft CoreWeave trouw aan NVIDIA en is het de eerste die de GB300 NVL72 voor algemene beschikbaarheid aanbiedt.
Een compleet ecosysteem: software, zichtbaarheid en DevOps
Buiten het hardwareaspect heeft CoreWeave deze nieuwe platform geïntegreerd met zijn cloud-native softwarestack:
- CoreWeave Kubernetes Service (CKS): voor het beheren van containers in AI-omgevingen.
- Slurm on Kubernetes (SUNK): ideaal voor HPC-lasten en massale training.
- Rack Lifecycle Controller (RLCC): voor het beheren van onderhoud, energie en waarschuwingen per rack.
- Integratie met Weights & Biases: voor gedetailleerde monitoring van hardware en clustergezondheid.
Deze integratie stelt AI-ingenieurs in staat om hun modellen te schalen en aan te passen met ongekende zichtbaarheid van elke GPU, rack of regio.
Onderscheidingen en uitbreiding
In juni heeft CoreWeave weer een mijlpaal bereikt door het trainen van het Llama 3.1-model met 405 miljard parameters in slechts 27,3 minuten, met behulp van 2.500 GB200 superchips. Deze prestatie in MLPerf Training v5.0, in samenwerking met NVIDIA en IBM, versterkt de referentiepositie van het bedrijf in AI-rekenkracht.
Bovendien is CoreWeave de enige leverancier met Platinum-certificering in het ClusterMAX™-systeem van SemiAnalysis, een maatstaf die de efficiëntie, beschikbaarheid en schaalbaarheid van cloudoplossingen voor AI beoordeelt.
Deskundig commentaar
“De uitrol van de GB300 NVL72-systemen laat zien dat we een nieuw tijdperk van cloud-infrastructuur ingaan, waarin prestatie per watt en de mogelijkheid om autonome agenten te schalen cruciaal zijn. De integratie van extreme hardware, native software en observability is wat CoreWeave onderscheidt in deze race,” aldus David Carrero, medeoprichter van Stackscale en expert in cloud- en bare-metal-infrastructuur in Europa.
Een investering in de toekomst van berekeningen
Met deze uitrol introduceert CoreWeave niet alleen de meest krachtige hardware van het moment, maar bevestigt ook zijn strategie om laboratoria, startups en AI-bedrijven een geoptimaliseerde, schaalbare omgeving te bieden voor de volgende generatie fundamentele modellen.
Het bedrijf is van plan om deze systemen verder uit te breiden naar zijn datacenters in Noord-Amerika en Europa in de tweede helft van 2025. In een omgeving waar elke seconde en elk watt telt, lijkt CoreWeave de leiding te nemen.
Bronnen: Barron’s, PC Gamer, NVIDIA, CoreWeave, MLPerf, NetworkWorld, SemiAnalysis.