ASUS waagt zich aan vloeibare AI met Vera Rubin en lokale autonome agenten

ASUS heeft de GTC 2026 aangegrepen om een van haar meest ambitieuze initiatieven op het gebied van kunstmatige intelligentie-infrastructuur te presenteren: een volledige reeks systemen die variëren van rackgebaseerde AI-fabrieken tot desktop-, edge- en zakelijke oplossingen, alles geïntegreerd rond het platform NVIDIA Vera Rubin. De boodschap van het Taiwanese bedrijf is duidelijk: de volgende golf van AI zal niet alleen plaatsvinden in grote datacenters, maar in een combinatie van hoge prestaties, geavanceerde koeling, flexibele implementatie en lokale data-controle.

De meest opvallende innovatie is de volledig vloeistofgekoelde infrastructuur, waarmee ASUS wil inspelen op een steeds duidelijker wordende realiteit: de nieuwe AI-clusters verbruiken zoveel energie en genereren zoveel warmte dat traditionele koelsystemen in veel scenario’s ontoereikend beginnen te worden. Het bedrijf verzekert dat haar oplossing gericht is op het verminderen van zowel het PUE als de TCO, hoewel, zoals bij dergelijke aankondigingen gebruikelijk is, nog afgewacht moet worden hoe deze beloften zich vertalen naar praktijkdeployments en vergelijkingen tussen fabrikanten onder echte omstandigheden.

Een AI-fabriek ontworpen voor massale workloads

Het middelpunt van de aankondiging is de ASUS AI POD, gebaseerd op NVIDIA Vera Rubin NVL72, met name het systeem XA VR721-E3. ASUS beschrijft dit als een volledig vloeistofgekoeld platform voor grootschalige AI-workloads. Volgens het bedrijf kan dit systeem werken met een TDP tot 227 kW in de MaxP-modus of 187 kW in MaxQ-modus, en is het bedoeld voor omvangrijke modellen en omgevingen waar dichtheid van rekenkracht een kritische factor is. ASUS beweert bovendien dat het platform tot 10 keer meer prestatie per watt kan bieden, een uitspraak die gelezen moet worden als een fabrikantclaim gekoppeld aan de generatiesprong van de Rubin-platforms.

Ter ondersteuning van deze strategie heeft ASUS samenwerkingen bevestigd met bedrijven als Vertiv en Schneider Electric, met het doel een volledige stroom- en koelingslaag aan te bieden voor verschillende implementatietypen. Dit is geen detail. Bij grootschalige AI is de server niet langer slechts een doos met GPU’s, maar onderdeel van een groter systeem waarin energievoorziening, koeling, redundantie en het ontwerp van het datacenter net zo belangrijk zijn als de rekenkracht.

Naast de AI POD heeft ASUS ook nieuwe servers gepresenteerd gebaseerd op NVIDIA HGX Rubin NVL8. De strategie hier is nog wat flexibeler: enerzijds de XA NR1I-E12L, een hybrideoptie die directe vloeistofkoeling aan de chip combineert met luchtkoeling voor twee Intel Xeon 6-processors; anderzijds de XA NR1I-E12LR, een volledig vloeistofgekoeld systeem. Zo wil ASUS een meer geleidelijke overgang faciliteren voor klanten die nog niet klaar zijn voor volledige vloeistofkoeling in het rack.

Van datacenter tot desktop en edge

ASUS beperkt zich niet tot high-performance computing. Een belangrijk onderdeel van de presentatie richt zich op het brengen van geavanceerde AI-mogelijkheden naar de werkplek van ontwikkelaars en naar industriële edge-omgevingen. Zo introduceerde het de ASUS ExpertCenter Pro ET900N G3, een desktop gebaseerd op NVIDIA Grace Blackwell Ultra, en de ASUS Ascent GX10, een compacter model dat eveneens gericht is op lokale ontwikkeling en experimentatie. Beide systemen bieden voldoende geheugen en prestaties om grote modellen en autonome agents te ondersteunen zonder altijd afhankelijk te zijn van de cloud.

ASUS koppelt deze systemen aan NVIDIA NemoClaw, de open-source stack die NVIDIA nieuwe deze week introduceerde voor het uitvoeren van altijd-actieve assistenten gebaseerd op OpenClaw. NemoClaw omvat OpenShell, een open runtime die extra isolatie, toestemmingscontrole en privacybescherming toevoegt voor het veilig uitvoeren van autonome agents. Deze laag is bijzonder relevant omdat het probleem van agents niet alleen hun intelligentie is, maar ook hoe ze toegang krijgen tot tools, data en omgevingen zonder onnodige risico’s te lopen binnen bedrijven en overheidsinstanties.

In de edge-categorie heeft ASUS de PE3000N gepresenteerd, een robuuste inferentie-engine aangedreven door NVIDIA Jetson Thor. Volgens de fabrikant haalt deze minimaal 2.070 TFLOPS en is het bedoeld voor sensorfusie, autonome navigatie en fysieke AI-belastingen. Het doel is helder: een complete keten bouwen van modeltraining en -fijn afstelling tot implementatie op edge-systemen, waar lage latency, fysieke weerstand en autonomie belangrijker zijn dan marketingbeloften.

ASUS biedt een complete stack, niet alleen hardware

De derde pijler van de aankondiging betreft software en zakelijke positionering. ASUS benadrukt haar ASUS AI Hub-platform, een on-premise oplossing die eind 2025 werd gepresenteerd als een kant-en-klare tool voor het implementeren van bedrijfssassistenten, RAG-flows en documentatie-intelligentie met lokale databeheer. Volgens het bedrijf is het platform intern al gebruikt door meer dan 10.000 medewerkers, met pieken van meer dan 600 aanvragen per uur, meer dan 80% OCR-nauwkeurigheid en meer dan 30% efficiencyverbetering. Deze cijfers zijn intern en geven een indicatie van de gebruikservaring, maar bieden geen losstaande bevestiging van de marktprestaties.

Daarbij heeft ASUS samenwerkingen met NVIDIA-gecertificeerde opslagaanbieders zoals IBM, DDN, WEKA en VAST Data. Het doel is om haar aanbod te completeren voor AI- en HPC-omgevingen waarin opslag vaak een knelpunt vormt. ASUS biedt oplossingen in blok-, object-, JBOD- en softwaregedefinieerde vormen, wat onderstreept dat ze zich niet enkel als serverfabrikant positioneert, maar als integrator van een volledige AI-architectuur.

Uiteindelijk beweegt ASUS in dezelfde richting als andere grote GTC 2026-deelnemers: het verkopen van AI-fabrieken als een allesomvattend concept. Het verschil is dat ASUS probeert alle lagen te bedienen, van rack-scale met Rubin tot desktop met Grace Blackwell en lokale agents met OpenShell en NemoClaw. Deze aanpak kan aantrekkelijk zijn voor bedrijven die één technologische referentie.portfolio wensen, van laboratorium tot productie. Maar het legt ook een zware last op ASUS om te bewijzen dat ze dit brede aanbod daadwerkelijk kunnen vertalen naar consistente, goede ondersteuning en naadloze integratie tussen de verschillende componenten.

Wat uit dit alles wel duidelijk is, is dat de zakelijke AI van 2026 niet langer wordt verkocht als simpelweg een server met accelerators. Het wordt gepresenteerd als een ecosysteem waarin prestaties, koeling, software, opslag, data-soberheid en agentbeveiliging samenkomen in één pakket. En ASUS wil actief meedoen aan die conversatie.

Veelgestelde vragen

Wat heeft ASUS gepresenteerd op GTC 2026 op het gebied van AI?
ASUS heeft een nieuwe reeks AI-infrastructuren geïntroduceerd, gebaseerd op NVIDIA Vera Rubin, waaronder rackgebaseerde systemen met vloeistofkoeling, hybride- en volledige vloeistofservers, desktop-oplossingen voor lokale ontwikkeling en edge- en zakelijke oplossingen.

Wat is het ASUS AI POD met NVIDIA Vera Rubin NVL72?
Het is ASUS’ hoofdproduct voor grootschalige AI-fabrieken. Gebaseerd op het NVIDIA Vera Rubin NVL72-platform, ontworpen voor zware training en inferentie met volledige vloeistofkoeling.

Wat doen NVIDIA NemoClaw en OpenShell in ASUS-systemen?
Ze zorgen voor een veiligere uitvoering van autonome agents lokaal. NemoClaw installeert OpenShell, dat isolatie, toestemmingscontrole en privacybescherming toevoegt voor altijd-actieve assistants en andere agents gebaseerd op OpenClaw.

Is ASUS AI Hub bedoeld voor bedrijven die niet in de cloud willen?
Ja. ASUS presenteert het als een on-premise oplossing voor bedrijfssassistenten, RAG en documentatiebeheer, met meer controle over data en lokale implementatie binnen organisaties.

via: press.asus

Scroll naar boven