Supermicro versnelt de Rubin-periode: meer ‘rack-scale’ productie en vloeistofkoeling voor de nieuwe AI-systemen van NVIDIA

Supermicro kondigt aan dat het zijn productiecapaciteit en zijn “rack-schaal” oplossingen uitbreidt om als eerste de volgende generatie AI-infrastructuur te introduceren, gebaseerd op het NVIDIA Vera Rubin / Rubin-platform. Het bedrijf, dat bekend staat om zijn modulaire Data Center Building Block Solutions (DCBBS) aanpak en expertise in , presenteert zijn routekaart voor snelle uitrol van de aankomende NVIDIA Vera Rubin NVL72 en NVIDIA HGX Rubin NVL8. Deze configuraties zijn gericht op grootschalige training en inferentie, in een tijd waarin de knelpunten niet meer alleen de chips zijn: het deploy-tijd en de duurzame dichtheid in datacenters staan centraal.

De boodschap van Supermicro is duidelijk: het vergroten van de productiecapaciteit en liquid cooling is geen luxe, maar een voorwaarde voor de industrialisatie van AI. CEO Charles Liang plaatst de aankondiging in de context van de concurrentiestrijd om systemen van de volgende generatie sneller te leveren, efficiënter en betrouwbaarder. Een prioriteit voor hyperscale-bedrijven die hun datacenters transformeren in ’tokens-fabrieken’.

De fundamentele verschuiving: van “krachtige servers” naar industriële AI-infrastructuur

Jarenlang behandelden vele organisaties AI als een technologische projectuitdaging. Tegen 2026 verandert dat: AI wordt een industrieel fundament, met eisen aan vermogen, netwerk, geheugen en koeling die de traditionele datacenterarchitectuur op de proef stellen. In dat kader richt Supermicro zich op twee strategische pijlers:

  • Uitgebreide productiecapaciteit voor complete rack-systeemoplossingen.
  • Geavanceerde vloeistofkoeling (Direct Liquid Cooling, DLC) als middel om hoge dichtheden te behouden zonder het energieverbruik en de operationele complexiteit te verhogen.

Twee vlaggenschipproducten voor Rubin: NVL72 (rack-schaal) en HGX NVL8 (2U)

Supermicro richt zich op twee formaten die goed de richting van de markt aangeven: een rack-schaal-systeem dat is ontworpen voor maximale prestaties en een 2U-systeem dat flexibel in racks kan worden ingezet, beide met vloeistofkoeling als kerntechnologie.

Tabel 1 — Belangrijke configuraties aangekondigd door Supermicro (Rubin)

SysteemFocusBelangrijkste componentenMeest opvallende specificaties (volgens aankondiging)
NVIDIA Vera Rubin NVL72 SuperCluster“Rack-schaal” voor grootschalige AI72 NVIDIA Rubin GPU’s + 36 NVIDIA Vera CPU’s, ConnectX-9, BlueField-4, NVLink 63,6 exaflops NVFP4, 1,4 PB/s bandwidth HBM4, 75 TB snelle geheugen
NVIDIA HGX Rubin NVL8 (2U, vloeistofgekoeld)8 GPU’s in compacte vorm voor AI/HPC8 GPU’s, NVLink, ConnectX-9 (tot 1.600 Gb/s), x86-CPU’s (volgende generatie Intel Xeon of AMD EPYC)400 petaflops NVFP4, 176 TB/s HBM4, 28,8 TB/s NVLink, 28,8 TB/s NVLink BW

De gegevens en beschrijvingen zijn afkomstig uit het persbericht van Supermicro.

Meer dan alleen de cijfers is het belangrijk om te begrijpen wat ze betekenen: het platform wordt gezien als een holistisch systeem (GPU + CPU + netwerk + DPU + geheugen), niet als losse onderdelen. Daarnaast benadrukt Supermicro verbeteringen in onderhoudbaarheid en operationele efficiëntie via de NVIDIA MGX-architectuur (derde generatie rack-structuur), en een end-to-end vloeistofkoeling die onder andere in-line CDU’s omvat voor gebruik met getemperde water en doelstellingen voor efficiëntie.

Netwerken evolueren van “connectiviteit” naar volledige architectuur

In grootschalige AI hangt de daadwerkelijke prestatie af van de manier waarop parameters, activaties en gradients worden verplaatst. Daarom integreert dit aankondiging expliciet twee schaalstrategieën:

  • NVIDIA Quantum-X800 InfiniBand voor het schalen van clusters met lage latentie en hoge prestaties (gericht op grootschalige training).
  • NVIDIA Spectrum-X Ethernet en specifiek de overgang naar Ethernet Photonics met co-geïntegreerde optiek (CPO), gericht op verbetering van efficiëntie en betrouwbaarheid van zeer snelle Ethernet-netwerken.

Supermicro benadrukt bovendien de rol van Spectrum-6 (tot 102,4 Tb/s switching-capaciteit) en modellen zoals SN6800/SN6810/SN6600 voor 800G, afgestemd op de strategie van NVIDIA voor “AI-fabrieken” waarin het netwerk geen downtime of hoog energieverbruik mag veroorzaken.

Tabel 2 — Platformcomponenten die de maatstaf voor Rubin zetten

ComponentWaarom belangrijk voor AIWat Rubin onderscheidt (volgens aankondiging)
NVLink 6Vermindert knelpunten GPU↔GPU / CPU↔GPUHigh-speed interoperabiliteit voor grote modellen (bijv. MoE)
ConnectX-9 SuperNIC / BlueField-4 DPUVersnelt het netwerk en ontlast functies (beveiliging, datapad)Integratie in NVL72 en opties voor hoge capaciteit netwerken
Confidential Computing (derde generatie)Beschermt modellen/gegevens/prompts in gedeelde omgevingenUnificatie van TEE op GPU-niveau voor isolatie van workloads
RAS Engine (Tweede generatie)Continu operaties zonder degradatieTegengel Checks in realtime en focus op beschikbaarheid
Spectrum-X Ethernet PhotonicsEfficiëntie en betrouwbaarheid op 800G-schaalFocust op fotonica/CPO voor “AI-fabrieken”

Waarom Supermicro zo sterk inzet op vloeistofkoeling

De overschakeling naar HBM4, extreme GPU-dichtheden en 800G-netwerken zet drie variabelen onder druk: energie, warmte en ruimte. Daarom benadrukt Supermicro haar Direct Liquid Cooling-technologie en haar productiecapaciteit voor volledig gevalideerde, rack-klare oplossingen. In de praktijk betekent deze aanpak:

  • Kortere doorlooptijd van bestelling tot operationeel systeem.
  • Het minimaliseren van risico’s bij maatwerkintegraties, een vaak grootste vertraagfactor.
  • Kostenbeheersing van operationele uitgaven, wanneer hoge dichtheid de norm wordt in plaats van een experiment.

In 2026 wint de uitvoering het van puur theoretische prestaties: wie levert eerder, die valideert sneller en die operationeel kan blijven met minimale verrassingen.


Veelgestelde vragen

Wat is een NVL72-systeem en waarom wordt het “rack-schaal” voor AI genoemd?

Een NVL72 is een rack-omvattende configuratie die tientallen GPU’s en CPU’s combineert in één samenhangend systeem (interconnect, netwerk en acceleratie). Het is ontworpen voor grootschalige training en inferentie, waarbij de efficiëntie van het hele systeem (niet alleen de chip) bepalend is voor de uiteindelijke prestaties.

Welke voordelen biedt vloeistofkoeling in AI-infrastructuur met de nieuwste GPU’s?

Vooral, het ondersteunt hogere dichtheden met beter thermisch beheer, vermindert de kans op throttling en zorgt voor stabiele operaties. Daarnaast sluit het aan bij doelstellingen voor energie-efficiëntie bij de continue inzet van grote, krachtige racks.

InfiniBand of Ethernet voor AI? Waarom beide worden gepresenteerd op hetzelfde platform?

Omdat ze elk verschillende behoeften bedienen: InfiniBand wordt ingezet voor lage-latentie en grootschalige training, terwijl Ethernet, dat steeds geoptimaler wordt voor AI, geschikt is voor flexibele architecturen en grote operaties. NVIDIA promoot Spectrum-X en fotonica om de efficiëntie en betrouwbaarheid van hoge-snelheids Ethernet-netwerken verder te verbeteren.

Wat moet een bedrijf controleren voordat het Rubin in het datacenter implementeert?

Compatibiliteit met netwerk (800G), koelingsstrategie (lucht versus vloeistof), elektrisch ontwerp en operationeel model: voorafgaande validatie, kritieke onderdelen (zoals CDU, koelmiddeldistributie) en support. Het succes van deze platforms hangt sterk af van de omgeving en het hardware-ontwerp.

vía: supermicro

Scroll naar boven