ASUS en NVIDIA Transformeren AI-Infrastructuur met Nieuwe AI POD-ontwerpen op COMPUTEX 2025

ASUS Lanceert Geavanceerde AI-infrastructuur op COMPUTEX 2025

Tijdens COMPUTEX 2025 heeft ASUS zijn nieuwste voorstel voor geavanceerde infrastructuur voor kunstmatige intelligentie (AI) gepresenteerd in samenwerking met NVIDIA. Onder de naam AI POD introduceert het bedrijf een gevalideerde referentiearchitectuur voor de NVIDIA Enterprise AI Factory, die geoptimaliseerde en schaalbare oplossingen biedt voor AI-agenten, fysieke AI en HPC-werkbelastingen.

Deze nieuwe ontwerpen zijn gecertificeerd voor gebruik met de Grace Blackwell, HGX en MGX platforms van NVIDIA. Ze zijn beschikbaar voor datacenters met vloeistofkoeling en voor air-cooled oplossingen, waardoor ongekende flexibiliteit, prestaties en thermische efficiëntie worden geboden voor bedrijven die AI op grote schaal willen implementeren.


Validatie van de Referentiearchitectuur voor de AI Factory

De voorstel van ASUS biedt een gevalideerde bedrijfsreferentiearchitectuur, gericht op het vereenvoudigen van de ontwikkeling, implementatie en het beheer van geavanceerde AI-toepassingen in on-premises omgevingen. Deze oplossing omvat:

  • Versnelde computing met NVIDIA GPU’s GB200/GB300 NVL72.
  • Hoge prestatienetwerken met NVIDIA Quantum InfiniBand of Spectrum-X Ethernet.
  • Gecertificeerde opslag met ASUS-racks RS501A-E12-RS12U en VS320D.
  • Bedrijfssoftware via NVIDIA AI Enterprise en ASUS beheer oplossingen.

Een van de opvallendste configuraties is een cluster van 576 GPU’s verdeeld over acht racks met vloeistofkoeling, of een compacte versie van 72 GPU’s in een enkele air-cooled rack. Dit ontwerp herdefinieert de prestaties voor werkbelastingen zoals het trainen van taalmodellen (LLM’s), massale inferentie en redenering van intelligente agenten.


Geoptimaliseerde MGX en HGX Racks voor de Volgende Generatie AI

ASUS heeft nieuwe MGX-conform configuraties onthuld met zijn ESC8000-serie, uitgerust met Intel Xeon 6-processoren en RTX PRO 6000 Blackwell Server Edition GPU’s, geïntegreerd met de NVIDIA ConnectX-8 SuperNIC die snelheden tot 800 Gb/s kan bereiken. Deze platforms zijn voorbereid op taken zoals contentgeneratie, generatieve AI en meeslepende AI, waarbij ze uitbreidbaarheid en prestaties van wereldklasse bieden.

De door ASUS geoptimaliseerde HGX racks (XA NB3I-E12 met HGX B300 en ESC NB8-E11 met HGX B200) bieden een hoge GPU-densiteit en uitstekende thermische efficiëntie, zowel in vloeistof- als luchtkoelingsconfiguraties. Deze oplossingen zijn gericht op werkbelastingen zoals het fine-tunen van modellen, het trainen van LLM’s en de continue uitvoering van AI-agenten.


Infrastructuur voor Autonome AI-agenten

Geïntegreerd met de nieuwste innovaties in agentische AI, richt de infrastructuur van ASUS zich op AI-modellen die autonome beslissingen kunnen nemen en in real-time kunnen leren, waardoor geavanceerde zakelijke toepassingen in meerdere sectoren mogelijk worden.

Om dit te ondersteunen, biedt ASUS tools zoals:

  • ASUS Control Center – Data Center Edition en Infrastructure Deployment Center (AIDC) voor het vergemakkelijken van de uitrol van modellen.
  • WEKA Parallel File System en ProGuard SAN Storage voor het beheren van gegevens met snelheid en schaal.
  • Geavanceerd SLURM-beheer en NVIDIA UFM voor InfiniBand-netwerken, wat de resource-utilisatie optimaliseert.

Een Stap Dichterbij de AI-fabriek

ASUS heeft verklaard dat hun doel is om zich als strategische partner voor de creatie van AI-fabrieken op wereldschaal te positioneren, door gevalideerde hardware, georkestreerde software en bedrijfssteun te combineren. Deze oplossingen zijn ontworpen om de implementatietijd te verkorten, de TCO (totaal eigendomskosten) te verbeteren en een vlotte en veilige schaalbaarheid te faciliteren.


ASUS en NVIDIA stellen zo een nieuwe standaard voor de slimme datacenters van de toekomst, met de focus op de massale adoptie van next-gen AI en de evolutie naar autonome agenten binnen de bedrijfsinfrastructuur.

Scroll naar boven