Supermicro kondigt aan dat het zijn productiecapaciteit en zijn “rack-schaal” oplossingen uitbreidt om als eerste de volgende generatie AI-infrastructuur te introduceren, gebaseerd op het NVIDIA Vera Rubin / Rubin-platform. Het bedrijf, dat bekend staat om zijn modulaire Data Center Building Block Solutions (DCBBS) aanpak en expertise in , presenteert zijn routekaart voor snelle uitrol van de aankomende NVIDIA Vera Rubin NVL72 en NVIDIA HGX Rubin NVL8. Deze configuraties zijn gericht op grootschalige training en inferentie, in een tijd waarin de knelpunten niet meer alleen de chips zijn: het deploy-tijd en de duurzame dichtheid in datacenters staan centraal.
De boodschap van Supermicro is duidelijk: het vergroten van de productiecapaciteit en liquid cooling is geen luxe, maar een voorwaarde voor de industrialisatie van AI. CEO Charles Liang plaatst de aankondiging in de context van de concurrentiestrijd om systemen van de volgende generatie sneller te leveren, efficiënter en betrouwbaarder. Een prioriteit voor hyperscale-bedrijven die hun datacenters transformeren in ’tokens-fabrieken’.
De fundamentele verschuiving: van “krachtige servers” naar industriële AI-infrastructuur
Jarenlang behandelden vele organisaties AI als een technologische projectuitdaging. Tegen 2026 verandert dat: AI wordt een industrieel fundament, met eisen aan vermogen, netwerk, geheugen en koeling die de traditionele datacenterarchitectuur op de proef stellen. In dat kader richt Supermicro zich op twee strategische pijlers:
- Uitgebreide productiecapaciteit voor complete rack-systeemoplossingen.
- Geavanceerde vloeistofkoeling (Direct Liquid Cooling, DLC) als middel om hoge dichtheden te behouden zonder het energieverbruik en de operationele complexiteit te verhogen.
Twee vlaggenschipproducten voor Rubin: NVL72 (rack-schaal) en HGX NVL8 (2U)
Supermicro richt zich op twee formaten die goed de richting van de markt aangeven: een rack-schaal-systeem dat is ontworpen voor maximale prestaties en een 2U-systeem dat flexibel in racks kan worden ingezet, beide met vloeistofkoeling als kerntechnologie.
Tabel 1 — Belangrijke configuraties aangekondigd door Supermicro (Rubin)
| Systeem | Focus | Belangrijkste componenten | Meest opvallende specificaties (volgens aankondiging) |
|---|---|---|---|
| NVIDIA Vera Rubin NVL72 SuperCluster | “Rack-schaal” voor grootschalige AI | 72 NVIDIA Rubin GPU’s + 36 NVIDIA Vera CPU’s, ConnectX-9, BlueField-4, NVLink 6 | 3,6 exaflops NVFP4, 1,4 PB/s bandwidth HBM4, 75 TB snelle geheugen |
| NVIDIA HGX Rubin NVL8 (2U, vloeistofgekoeld) | 8 GPU’s in compacte vorm voor AI/HPC | 8 GPU’s, NVLink, ConnectX-9 (tot 1.600 Gb/s), x86-CPU’s (volgende generatie Intel Xeon of AMD EPYC) | 400 petaflops NVFP4, 176 TB/s HBM4, 28,8 TB/s NVLink, 28,8 TB/s NVLink BW |
De gegevens en beschrijvingen zijn afkomstig uit het persbericht van Supermicro.
Meer dan alleen de cijfers is het belangrijk om te begrijpen wat ze betekenen: het platform wordt gezien als een holistisch systeem (GPU + CPU + netwerk + DPU + geheugen), niet als losse onderdelen. Daarnaast benadrukt Supermicro verbeteringen in onderhoudbaarheid en operationele efficiëntie via de NVIDIA MGX-architectuur (derde generatie rack-structuur), en een end-to-end vloeistofkoeling die onder andere in-line CDU’s omvat voor gebruik met getemperde water en doelstellingen voor efficiëntie.
Netwerken evolueren van “connectiviteit” naar volledige architectuur
In grootschalige AI hangt de daadwerkelijke prestatie af van de manier waarop parameters, activaties en gradients worden verplaatst. Daarom integreert dit aankondiging expliciet twee schaalstrategieën:
- NVIDIA Quantum-X800 InfiniBand voor het schalen van clusters met lage latentie en hoge prestaties (gericht op grootschalige training).
- NVIDIA Spectrum-X Ethernet en specifiek de overgang naar Ethernet Photonics met co-geïntegreerde optiek (CPO), gericht op verbetering van efficiëntie en betrouwbaarheid van zeer snelle Ethernet-netwerken.
Supermicro benadrukt bovendien de rol van Spectrum-6 (tot 102,4 Tb/s switching-capaciteit) en modellen zoals SN6800/SN6810/SN6600 voor 800G, afgestemd op de strategie van NVIDIA voor “AI-fabrieken” waarin het netwerk geen downtime of hoog energieverbruik mag veroorzaken.
Tabel 2 — Platformcomponenten die de maatstaf voor Rubin zetten
| Component | Waarom belangrijk voor AI | Wat Rubin onderscheidt (volgens aankondiging) |
|---|---|---|
| NVLink 6 | Vermindert knelpunten GPU↔GPU / CPU↔GPU | High-speed interoperabiliteit voor grote modellen (bijv. MoE) |
| ConnectX-9 SuperNIC / BlueField-4 DPU | Versnelt het netwerk en ontlast functies (beveiliging, datapad) | Integratie in NVL72 en opties voor hoge capaciteit netwerken |
| Confidential Computing (derde generatie) | Beschermt modellen/gegevens/prompts in gedeelde omgevingen | Unificatie van TEE op GPU-niveau voor isolatie van workloads |
| RAS Engine (Tweede generatie) | Continu operaties zonder degradatie | Tegengel Checks in realtime en focus op beschikbaarheid |
| Spectrum-X Ethernet Photonics | Efficiëntie en betrouwbaarheid op 800G-schaal | Focust op fotonica/CPO voor “AI-fabrieken” |
Waarom Supermicro zo sterk inzet op vloeistofkoeling
De overschakeling naar HBM4, extreme GPU-dichtheden en 800G-netwerken zet drie variabelen onder druk: energie, warmte en ruimte. Daarom benadrukt Supermicro haar Direct Liquid Cooling-technologie en haar productiecapaciteit voor volledig gevalideerde, rack-klare oplossingen. In de praktijk betekent deze aanpak:
- Kortere doorlooptijd van bestelling tot operationeel systeem.
- Het minimaliseren van risico’s bij maatwerkintegraties, een vaak grootste vertraagfactor.
- Kostenbeheersing van operationele uitgaven, wanneer hoge dichtheid de norm wordt in plaats van een experiment.
In 2026 wint de uitvoering het van puur theoretische prestaties: wie levert eerder, die valideert sneller en die operationeel kan blijven met minimale verrassingen.
Veelgestelde vragen
Wat is een NVL72-systeem en waarom wordt het “rack-schaal” voor AI genoemd?
Een NVL72 is een rack-omvattende configuratie die tientallen GPU’s en CPU’s combineert in één samenhangend systeem (interconnect, netwerk en acceleratie). Het is ontworpen voor grootschalige training en inferentie, waarbij de efficiëntie van het hele systeem (niet alleen de chip) bepalend is voor de uiteindelijke prestaties.
Welke voordelen biedt vloeistofkoeling in AI-infrastructuur met de nieuwste GPU’s?
Vooral, het ondersteunt hogere dichtheden met beter thermisch beheer, vermindert de kans op throttling en zorgt voor stabiele operaties. Daarnaast sluit het aan bij doelstellingen voor energie-efficiëntie bij de continue inzet van grote, krachtige racks.
InfiniBand of Ethernet voor AI? Waarom beide worden gepresenteerd op hetzelfde platform?
Omdat ze elk verschillende behoeften bedienen: InfiniBand wordt ingezet voor lage-latentie en grootschalige training, terwijl Ethernet, dat steeds geoptimaler wordt voor AI, geschikt is voor flexibele architecturen en grote operaties. NVIDIA promoot Spectrum-X en fotonica om de efficiëntie en betrouwbaarheid van hoge-snelheids Ethernet-netwerken verder te verbeteren.
Wat moet een bedrijf controleren voordat het Rubin in het datacenter implementeert?
Compatibiliteit met netwerk (800G), koelingsstrategie (lucht versus vloeistof), elektrisch ontwerp en operationeel model: voorafgaande validatie, kritieke onderdelen (zoals CDU, koelmiddeldistributie) en support. Het succes van deze platforms hangt sterk af van de omgeving en het hardware-ontwerp.
vía: supermicro
