CoreWeave lanceert duizenden NVIDIA Blackwell GB200 GPU’s om de volgende generatie AI-modellen te stimuleren

Titel: CoreWeave en de Voorhoede van AI-Training met NVIDIA NVL72-systemen

CoreWeave heeft zichzelf gevestigd als een van de eerste cloudproviders die de NVIDIA GB200 NVL72-systemen op grote schaal inzet, waarmee duizenden GPUs Grace Blackwell toegankelijk worden voor hun klanten. Pioniers in de kunstmatige intelligentie, zoals Cohere, IBM en Mistral AI, maken al gebruik van deze krachtige infrastructuur om geavanceerde AI-modellen te trainen en te implementeren met ongekende prestaties.

De nieuwe NVL72-systemen zijn ontworpen voor AI-agentwerkbelastingen en redenering, en bieden een architectuur met 72 onderling verbonden GPUs via NVLink en 36 CPUs Grace. Dit stelt bedrijven in staat om massale gegevensverwerking te realiseren met een lage latentie, energie-efficiëntie en ongeëvenaarde schaalbaarheid.

Cohere: Tot 3 keer meer prestaties voor modellen van 100 miljard parameters

Cohere, een bedrijf dat gespecialiseerd is in AI-oplossingen voor bedrijven, heeft al begonnen met het gebruiken van deze systemen om massale modellen te trainen en gepersonaliseerde agenten te implementeren via hun North-platform. Volgens de onderneming bieden de NVL72-systemen tot 3 keer meer prestaties dan de eerdere Hopper GPUs, zelfs voordat specifieke optimalisaties voor Blackwell worden toegepast.

Autumn Moulder, Vice President Engineering bij Cohere, benadrukt dat de integratie soepel is verlopen en dat de unificatiesysteemgeheugen en FP4-precisie van het nieuwe systeem efficiëntere en kosteneffectievere inferenties mogelijk maken. "We kijken ernaar uit om nog grotere verbeteringen te zien met toekomstige optimalisaties," aldus Moulder.

IBM: Models Granite Stuwen met Veilige en Efficiënte AI

IBM heeft ook toegang gekregen tot duizenden GB200 GPUs via CoreWeave om de training van hun Granite-modelreeks te versnellen. Deze modellen zullen open source zijn en gericht zijn op bedrijfstoepassingen met de nadruk op veiligheid, snelheid en kosten.

Deze modellen vormen de basis voor oplossingen zoals IBM watsonx Orchestrate, die gericht zijn op de automatisering van workflows door middel van AI-agenten. IBM maakt tevens gebruik van hun IBM Storage Scale System, geïntegreerd met de cloud van CoreWeave, om een E/S-prestaties te garanderen die passen bij deze workloads.

"Deze samenwerking met CoreWeave stelt ons in staat om modellen van hoge prestatie en lage kosten te bouwen voor de nieuwe generatie van bedrijfsmatige AI," verklaarde Sriram Raghavan, Vice President AI bij IBM Research.

Mistral AI: Dubbele Prestatie voor Open Source Modellen

De Franse startup Mistral AI, bekend om zijn open source modellen met sterke redeneringscapaciteiten, ontvangt zijn eerste duizend GB200 GPUs om de ontwikkeling van nieuwe generaties taalkundige modellen te versnellen.

Volgens Thimothee Lacroix, medeoprichter en CTO van Mistral, "hebben we zonder aanvullende optimalisaties al een verbetering van 2x in de training van dichte modellen gezien," wat nieuwe mogelijkheden opent voor het schalen van hun modellen en realtime inferenties.

CoreWeave en de Massale Implementatie van NVIDIA Blackwell

CoreWeave biedt niet alleen deze instances aan voor lange termijn bedrijfsklanten, maar stelt deze ook beschikbaar voor andere gebruikers via hun cloudinfrastructuur. Elke instance omvat rack-schaal NVLink met NVIDIA Quantum-2 InfiniBand-netwerken, en kan opschalen tot 110.000 GPUs, waardoor het zich positioneert als een van de krachtigste platformen ter wereld voor de ontwikkeling van kunstmatige intelligentie.

Deze vooruitgang markeert een nieuw hoogtepunt in de evolutie van versnelde computing, waardoor bedrijven in staat worden gesteld om steeds complexere en krachtigere AI-modellen te trainen en te implementeren, met ongekende efficiëntie.

Met deze implementatie versterken CoreWeave en NVIDIA hun leiderschap in de race om de infrastructuur te bieden die nodig is voor de kunstmatige intelligentie van de volgende generatie.

Bron: Nvidia

Scroll naar boven