De infrastructuur voor Kunstmatige Intelligentie bevindt zich in een nieuwe fase: de strijd wordt niet langer alleen uitgevochten op GPU-vermogen, maar op het datatraject. In die context hebben VAST Data en NVIDIA een integratie aangekondigd die zich richt op het meest voorkomende knelpunt in zakelijke implementaties: de complexiteit van het koppelen van opslag, databases, analytics en AI-diensten alsof het losse stukjes zijn. De samenwerking komt tot uiting in VAST CNode-X, een nieuwe oplossing om het VAST AI Operating System (AI OS) rechtstreeks op NVIDIA GPU-servers te brengen en het te integreren als een “eerste klasse” laag binnen versnelde clusters.
Het concept is eenvoudig maar ambitieus: als trainen, inferentie en systemen zoals RAG afhankelijk zijn van data-verplaatsing, wordt de werkelijke prestatie bepaald door het “data pad”. VAST beweert dat, met het AI OS draaiend op servers met NVIDIA-technologie, organisaties knelpunten kunnen verminderen en ingangsbeheer, data-analyse, en inferentie kunnen samenbrengen in een coherent systeem. In plaats van een puzzel te assembleren met verschillende tools – opslag, databases, en AI-stacks – richt de aanpak zich op het samenvoegen van deze capaciteiten in een gestandaardiseerde, productieklare stack.
CNode-X: wanneer een server niet meer “alleen rekenkracht” is
VAST beschrijft CNode-X als een nieuwe generatie NVIDIA-gecertificeerde systemen, ontworpen om de manier waarop AI-infrastructuren worden gebouwd en beheerd te transformeren. Het gaat verder dan simpelweg snelle opslag verbinden met een GPU-cluster: de innovatie is dat het AI OS direct op het hardware beschikbaar is, waardoor high-performance storage services worden toegevoegd aan versnelde clusters én het datasysteem wordt geïntegreerd binnen de omgeving zelf.
Het doel is om een reeks toepassingen te optimaliseren die tegenwoordig de kern vormen van bijna elk bedrijf met serieuze AI: AI-pipelines, high-performance analytics, vector-zoekopdrachten, RAG en agentsystemen. Praktisch betekent dit het verminderen van de “naadloze integratie”-inspanning die doorgaans nodig is bij het overgaan van een proefopstelling naar een volledige productieomgeving: verschillende configuraties, gescheiden consoles, dubbele identiteiten en meerdere teams die proberen één stack te laten functioneren als één product.
Renen Hallak, oprichter en CEO van VAST Data, beschouwt deze evolutie als het bereiken van een doel dat al tien jaar wordt nagestreefd: een systeem dat data “verduidelijkt tot intelligentie en actie” op een continue basis. Zijn kernboodschap is dat het versnellen van computing en data-routes binnen het AI OS een meer directe weg biedt om herstel, analytics en agent-gebaseerde workflows in productie te brengen, zonder dat het project vastloopt in integratiedrempels.
Jensen Huang en de “persistent memory” voor agents die dagenlang werken
NVIDIA positioneert deze ontwikkeling binnen haar strategie om de fundamenten van AI-computing te herdefiniëren. Jensen Huang, oprichter en CEO, benadrukt dat CNode-X versneld wordt door CUDA “op elke laag”, zodat AI-agents beschikken over persistente geheugencapaciteit. Het doel is dat agents complexe problemen kunnen aanpakken over dagen of weken, en op termijn zelfs jaren, zonder hun context te “vergeten”. Dit onderstreept een belangrijke trend in de industrie: agents hebben niet alleen krachtige modellen nodig, maar ook een datamanagement dat de status, geschiedenis en grootschalige gegevensherstel ondersteunt.
Parallel hieraan onderstreept Cisco haar rol als belangrijke partner voor commercialisatie. Jeetu Patel, president en CPO van Cisco, geeft aan dat bedrijven een betrouwbare weg nodig hebben om AI op grote schaal te operationaliseren. Volgens hem stelt de samenwerking met VAST en NVIDIA datacenters in staat om een end-to-end versnellingsplatform te bieden, dat de overgang van experimenten naar “altijd actieve” systemen vergemakkelijkt, met meer snelheid en vertrouwen.
OEMs: beschikbaarheid via Cisco, HPE en Supermicro
VAST meldt dat de CNode-X-servers beschikbaar zullen zijn via fabrikanten als Cisco en Supermicro. Verder wordt ook HPE en andere OEMs genoemd in de sector. Dit is niet onbelangrijk: in infrastructuur investeringen wordt de adoptie versneld wanneer het product “off-the-shelf” beschikbaar is via de gebruikelijke kanalen, met ondersteuning en gecertificeerde configuraties.
Een passend beeld: het “AI-netwerk” dat niet meer lijkt op internet
De aankondiging wordt ondersteund door een recent onderzoek van Backblaze dat het netwerkverkeer van AI-workloads vergelijkt met dat in traditionele cloudomgevingen. Het constateert dat het gedrag van AI-verkeer verschilt: “minder veel-naar-veel en meer persistente, hoge-bandaardrelaties tussen gespecialiseerde systemen”. In dat scenario zullen opslag, computing en netwerk steeds meer op elkaar afgestemd raken, gedreven door de noodzaak om GPU’s continu te benutten en pipelines soepel te laten verlopen.
Deze analyse sluit aan bij het kernargument van CNode-X: wanneer data de bottleneck vormt, ligt de waarde niet alleen in meer GPU’s toevoegen, maar vooral in operationele latency verminderen, het stack vereenvoudigen en voorkomen dat de infrastructuur een eindeloos integratietraject wordt.
Polaris: de laag om gedistribueerde AI als “één vloot” te beheren
De uitbreidingsaankondiging van de VAST-NVIDIA samenwerking werd ook gedaan gelijktijdig met de introductie van Polaris, een nieuwe multi-cloud en hybrid cloud oplossing van VAST. Polaris beoogt gedistribueerde deployments te organiseren in een geünificeerd platform op vlootniveau. Het doel is om infrastructuur en data van AI te beheren waar workloads voor training en inferentie plaatsvinden, ongeacht de locatie. Het benadrukt dat AI niet beperkt is tot één datacenter of cloud, en dat steeds meer organisaties een control layer willen die verschillende omgevingen naadloos integreert zonder meerdere tools te moeten hanteren.
Samen vormen CNode-X en Polaris een gedeelde ambitie: dat AI-infrastructuur niet enkel een verzameling onderdelen is, maar een operationeel datasysteem en uitvoeringslaag dat klaar is voor productie.
Veelgestelde vragen (FAQ)
Wat is VAST CNode-X en waarvoor dient het in een GPU-cluster van NVIDIA?
VAST CNode-X is een voorstel voor een GPU-serversysteem dat het VAST AI OS rechtstreeks integreert in het hardware en data-diensten levert die de werking van AI-pipelines, RAG en vector-search in versnelde clusters vereenvoudigen.
Waarom benadrukt VAST het “unificeren” van opslag, databases en AI-stacks?
Omdat bij veel zakelijke implementaties het grootste obstakel niet het model zelf is, maar de scheiding en integratie: verschillende tools, meerdere consoles en latentieproblemen. Het unificeren van de stack moet de complexiteit verlagen en de overgang van pilot naar productie versnellen.
Wat betekent “persistente geheugen voor AI-agents” in deze context?
Dit houdt in dat de toestand en werkcontext van agents over lange tijd kunnen worden bewaard, ondersteund door een data- en recoverylaag, zodat agents complexe taken kunnen uitvoeren zonder relevante informatie te verliezen.
Wat biedt Polaris voor een hybride en multicloud AI-strategie?
Polaris fungeert als een control layer die infrastructuur en data in verschillende omgevingen (datacenter, cloud) behandelt als één “vloot”. Dit verbetert de operationele coherentie wanneer training en inferentie in verschillende omgevingen plaatsvinden.
