NVIDIA heeft tijdens de CES-beurs in Las Vegas de lancering aangekondigd van zijn nieuwste AI-Computingsplatform, genaamd Rubin, genoemd naar de astronoom Vera Florence Cooper Rubin. Het systeem markeert een belangrijke stap in de evolutie van AI-infrastructuur, waarbij de aandacht verschuift van individuele componenten naar een geïntegreerd alles-in-één ontwerp dat functioneert als één supercomputer voor kunstmatige intelligentie.
Rubin wordt gepresenteerd als een complete “rack-scale” oplossing die zes geavanceerde chips combineert: de NVIDIA Vera CPU, de NVIDIA Rubin GPU, de NVLink 6-switch, de SuperNIC ConnectX-9, de BlueField-4 DPU en de Spectrum-6 Ethernet-switch. Deze integratie is gebaseerd op een concept dat NVIDIA “extreme co-design” noemt, waarbij CPU, GPU, netwerken, veiligheid, opslag en operationele processen gelijktijdig en in harmonie worden ontwikkeld om knelpunten te voorkomen en maximale efficiëntie te garanderen. Doel is het drastisch verminderen van de trainingstijd en vooral de kosten per inferentietoken, terwijl modellen steeds meer multimodaal en complex worden.
In tegenstelling tot de traditionele GPU-centrische aanpak, richt Rubin zich nu op een industriële benadering van AI: een “AI-fabriek” waarin niet alleen de hardware, maar ook netwerkinfrastructuur, beveiliging, schaalbaarheid en energiebesparing centraal staan. Jensen Huang, CEO van NVIDIA, benadrukte dat Rubin op het juiste moment komt, nu nieuwe generaties “AI-supercomputers” steeds vaker nodig zijn voor het ondersteunen van geavanceerde toepassingen zoals meervoudige redeneerstappen, lange termijn geheugen en grote generatieve modellen.
NVIDIA verwacht dat Rubin het kostenplaatje op inferentieniveau tot tien keer kan verlagen en dat de training van MoE (Mixture-of-Experts) modellen met vier keer minder GPU’s kan plaatsvinden dan voorheen. De platformen zijn ontworpen voor uiteenlopende workloads, van grote taalmodellen tot complexe reasoning-systemen en multimodale agents.
Rubin wordt gepresenteerd in twee hoofdformaten. De Vera Rubin NVL72 is een rack-scale systeem met 72 GPUs en 36 CPUs, ideaal voor grote datacenters en AI-productie. Daarnaast is er de HGX Rubin NVL8, een server-platform dat acht GPUs combineert via NVLink en zich richt op generatieve en wetenschappelijke toepassingen binnen x86-infrastructuren. Zo kunnen organisaties kiezen voor een schaalbare, modulaire aanpak of voor volledige rack-integratie.
In de kern introduceert Rubin vijf belangrijke innovaties: een zesde generatie NVLink voor enorme bandbreedte; de NVIDIA Vera CPU voor efficiënte en reasoning-gericht ontwerp; de nieuwe Rubin GPU met een derde generatie Transformer Engine voor optimale inferentieprestaties; een geavanceerd Confidential Computing-systeem dat dataprivacy en beveiliging versterkt; en de RAS Engine tweede generatie met real-time systeemmonitoring en fault tolerance.
Daarnaast speelt het opslagplatform voor inferentie, de Inference Context Memory Storage Platform, een cruciale rol in het verbeteren van prestaties bij meervoudige en lange sessies, door hergebruik van tussenresultaten te faciliteren. De BlueField-4 DPU ondersteunt deze nieuwe opslagoplossing door het delen en beveiligen van gegevens, inclusief de nieuwe ASTRA-architectuur voor veilige multi-tenant systemen.
Ook de netwerkinfrastructuur krijgt een upgrade met Spectrum-6 Ethernet, Co-Em بندی De SerDes van 200G en optische co-packaged technologieën zoals Spectrum-X Photonics, die betrouwbaarheid, uptime en energiebesparing aanzienlijk verhogen. Hiermee wordt niet alleen de snelheid verbeterd, maar ook de mogelijkheid vergroot om geografisch verspreide datacenters naadloos met elkaar te verbinden alsof ze in één fabriek opereren.
NVIDIA positioneert Rubin als de ruggengraat van grootschalige AI-implementaties in de cloud en op locatie. Binnen de tweede helft van 2026 verwacht het bedrijf grootschalige deployments door grote cloudproviders zoals AWS, Google Cloud, Microsoft en Oracle Cloud Infrastructure, die Rubin’s systeem zullen integreren in hun AI-infrastructuur. Partnerprogramma’s zoals Red Hat breiden ook uit, met optimale software-ondersteuning voor produseer- en bedrijfsomgevingen.
Tot slot wordt het gebruik van de DGX SuperPOD-ul traject als referentie-architectuur benadrukt, met systemen die honderden GPU’s samenbrengen en een rekenkracht leveren die zich uitstrekt tot 28,8 exaFLOPS (FP4). Microsoft en andere grote spelers bereiden zich voor op de adoptie, waarmee de weg wordt vrijgemaakt voor een nieuwe standaard in AI-infrastructuur: één geïntegreerd systeem, klaar voor de toekomst van geavanceerde AI-toepassingen.
