NVIDIA zet haar strategie van “AI-fabrieken” een stap verder met Vera Rubin DSX en een digitale dubbelganger om ze te ontwerpen voordat ze gebouwd worden

NVIDIA heeft tijdens GTC 2026 haar nieuwe Vera Rubin DSX AI Factory reference design gepresenteerd, evenals de algemene beschikbaarheid van Omniverse DSX Blueprint. Met deze combinatie wil het bedrijf operators in cloud, hyperscale, colocation providers en integrators een volledige oplossing bieden voor het ontwerpen, bouwen en beheren van grootschalige AI-datacenters, met een veel meer industriële aanpak. De aanpak beperkt zich niet alleen tot rekenkracht: het omvat het hele ecosysteem—netwerken, opslag, energie, koeling, controles en virtuele simulaties met behulp van fysiek nauwkeurige digitale twin-technologie.

Het centrale element is het reference design Vera Rubin DSX, dat NVIDIA beschrijft als een gids voor het implementeren van “codesigned” AI-infrastructuur, geoptimaliseerd voor maximale tokens per watt en het versnellen van de overgang van planning naar productie. Volgens het bedrijf dekt dit reference design de volledige stack van een AI-fabriek, van compute en het Spectrum-X Ethernet-netwerk tot opslag, inclusief best practices voor stroomvoorziening, koeling en controle. Het doel is dat partners schaalbare implementaties kunnen herhalen met minder frictie en minder risico’s op integratieproblemen.

Gelijktijdig positioneert NVIDIA Omniverse DSX Blueprint als de laag voor simulatie en voorafgaande validatie. De blueprint, nu algemeen beschikbaar op build.nvidia.com, maakt het mogelijk digitale twins van deze faciliteiten te bouwen om ontwerpen, operationele beleidslijnen en hardware- of loadwijzigingen te testen voordat ze in de fysieke wereld worden geïmplementeerd. In de praktijk kunnen gebruikers configuraties van GPU’s vergelijken, energieverbruik, operationele efficiëntie en totale eigendomskosten visualiseren, en thermische en elektrische simulaties uitvoeren binnen één workflow.

Deze blueprint is geen louter conceptuele demo. NVIDIA’s openbare documentatie vermeldt dat de repository onder andere de digitale geometrie bevat van een locatie van 50 acres, een front-end-applicatie om te communiceren met de digitale twins, SimReady-activa om de creatie van de omgeving te versnellen, en simulaties van elektrische belasting en thermisch gedrag in warme gangen. Het systeem ondersteunt ook het uitvoeren van storingsscenario’s en thermische rampen, essentieel voor datacenters waar elke megawatt en elke graad telt.

Op softwaregebied bouwt NVIDIA DSX op vier hoofdcomponenten. DSX Max-Q richt zich op het maximaliseren van rekenprestatie en tokens per watt binnen een vast elektrisch budget; DSX Flex verbindt AI-fabrieken met het openbare elektriciteitsnet om consumptie te moduleren en lokaal energie te genereren; DSX Exchange integreert signalen van IT en OT (Operational Technology) tussen compute, netwerk, energie en koeling; en DSX Sim valideert de installatie als een hoogfidele digitale twin via het platform DSX Air en SimReady-activa. Op de pagina van het blueprint beweert NVIDIA dat het Max-Q-concept tot 30% meer GPU-prestaties in datacenters kan opleveren, hoewel dat nog een commerciële schatting blijft.

Het ecosysteem dat meedoet aan deze ontwikkeling is ook aanzienlijk. NVIDIA noemt onder andere Cadence, Dassault Systèmes, Eaton, Jacobs, Nscale, Phaidra, Procore, PTC, Schneider Electric, Siemens, Switch, Trane Technologies en Vertiv als bijdragers aan het reference design en blueprint. Ze integreren platforms, leveren SimReady-activa of verbinden software voor ontwerp, bouw en beheer. Hiermee probeert NVIDIA haar visie op de AI-fabriek te vertalen naar een gemeenschappelijke taal voor fysieke infrastructuur, industrieel software en datacenteroperaties.

Bepaalde partners hebben al aangegeven hoe ze in dit concept passen. Schneider Electric meldt bijvoorbeeld dat haar validaties nieuwe modellen voor stroom- en koelarchitecturen omvatten, geschikt voor 480 VAC en hogere temperatuurniveaus in het koelcircuit, met scheiding van GPU-racks, netwerken, opslag en CPU’s. Ook gaan Schneider en AVEVA samenwerken om digitale twins en multidomäne simulaties (elektriciteit, thermisch, airflow, controls) te integreren binnen het Omniverse DSX-ecosysteem.

Vertiv kondigt aan dat het digitale activa voor power en koeling zal leveren, klaar voor simulatie, samen met herhaalbare en gevalideerde infrastructuurblokken. Dit moet de uitrol versnellen en risico’s minimaliseren. Het bedrijf ziet deze samenwerking als een evolutie van haar convergente infrastructuurbenadering, waarbij stroom, koeling, controle en diensten worden ontworpen als onderling afhankelijke systemen, en niet als losse onderdelen.

Een andere belangrijke drijfveer achter NVIDIA’s beweging is de energievoorziening. Volgens het bedrijf vormen niet langer enkel chips of civiele werken de bottleneck voor nieuwe AI-implementaties, maar vooral toegang tot stroom. Er zouden al meer dan 300 miljard dollar aan vertragingen in apparatuur en meer dan 200 GW aan projecten wachten op aansluiting, vooral in de VS. NVIDIA werkt daarom samen met Emerald AI, GE Vernova, Hitachi en Siemens Energy om de toegang tot het elektriciteitsnet te verbeteren en de stabiliteit van het energienet te versterken door middel van dynamisch vraagbeheer, samen modelgedreven netbeheer en digitale twins voor monitoring en fail-safety.

Samengevat geeft deze aankondiging duidelijk aan dat NVIDIA niet meer alleen GPU’s wil verkopen, maar een volledige architectuur voor AI-fabrieken wil codificeren. Van het ontwerp van de ruimte tot de koelpolitiek, thermische simulaties, interactie met het elektriciteitsnet en de orkestratie tussen IT en OT. Deze aanpak past bij de omschrijving van Vera Rubin DSX en is een verdere evolutie van Omniverse DSX, dat in oktober 2025 werd gepresenteerd als een open blueprint voor het ontwerpen en opereren van gigawatt schaalbare AI-fabrieken, gevalideerd in het AI Factory Research Center in Virginia.

Voor de datacentersector kan dit leiden tot een fundamentele verandering: het concurrentievoordeel zal niet meer slechts bestaan uit het sneller behalen van meer GPU’s, maar uit het sneller in productie brengen ervan, met minder kosten, minder overdimensionering en minder integratiefouten in energie, koeling, netwerk en compute. NVIDIA vat dat samen met termen als time to first production en time to revenue. In praktische termen betekent dit dat het AI-datacenter steeds meer lijkt op een industriële, simuleerbare, herhaalbare en optimaliseerbare productie, nog vóór de eerste rack wordt geïnstalleerd.

Scroll naar boven