NVIDIA verdubbelt zijn inzet voor AI-infrastructuur met BlueField-4 STX, een opslagarchitectuur ontworpen voor agenten en lange contexten

NVIDIA heeft tijdens GTC 2026 haar nieuwe BlueField-4 STX gepresenteerd, een modulaire referentie-architectuur die gericht is op het oplossen van een van de minder zichtbare knelpunten van de moderne AI: opslag en toegang tot context. Deze oplossing richt zich op bedrijven, cloudproviders en AI-infrastructuuroperators die systemen nodig hebben die lange contexten, meerdere tools en persistente sessies kunnen verwerken — een toenemende norm binnen leden-achtige AI.

De kernidee is duidelijk: meer GPU’s alleen zijn niet genoeg. Volgens NVIDIA bieden traditionele datacenters wel capaciteit, maar ontbreken de snelle responsetijden die AI-agents nodig hebben om in realtime toegang te krijgen tot gegevens en contextuele geheugen zonder de inferentie te vertragen. BlueField-4 STX probeert dat gat te dichten met een versneld opslagstack die data ‘dichtbij’ de GPU houdt en frictie tussen opslag, netwerk en computation vermindert.

De eerste rack-scale implementatie van deze architectuur krijgt de naam NVIDIA CMX, een context memory storage-platform dat een high-performance contextlaag toevoegt voor schaalbare inferentie en agent-gestuurde systemen. NVIDIA beweert dat deze aanpak tot vijf keer meer tokens per seconde kan verwerken dan traditioneel opslag, evenals vier maal de energie-efficiëntie en twee keer snellere datainname voor zakelijke AI-workloads.

Op technisch vlak wordt STX ondersteund door een nieuw BlueField-4 opslaggeoptimaliseerd processor, die de Vera-CPU combineert met de ConnectX-9 SuperNIC, samen met Spectrum-X Ethernet, DOCA en NVIDIA AI Enterprise. De architectuur maakt daarnaast deel uit van het Vera Rubin-platform, dat eveneens werd geïntroduceerd op GTC 2026 als de bouwsteen voor de toekomstige “AI-fabrieken” van NVIDIA. In dat ecosysteem fungeert BlueField-4 STX niet als een geïsoleerde component, maar als een van de gespecialiseerde racks die NVIDIA’s visie op training, agent-gestuurde inferentie, netwerken en opslag ondersteunen.

Deze beweging sluit aan bij een duidelijke marktontwikkeling. Waar de afgelopen jaren de focus vooral lag op GPU’s, HBM en hoge-snelheid netwerken, wil NVIDIA nu benadrukken dat contextgeheugen en opslag voor inferentie even strategisch zijn — zeker nu modellen niet langer alleen eenvoudige vragen beantwoorden, maar complexe taken uitvoeren, status behouden en informatie hergebruiken op grote schaal. Deze interpretatie is logisch op basis van de eigen boodschap van NVIDIA en de ontwerpprincipes van Vera Rubin, dat de AI-infrastructuur verdeelt over racks voor GPU, CPU, netwerken en opslag.

Daarnaast onderstreept NVIDIA dat het hier niet enkel om een roadmap gaat, maar om een levend ecosysteem dat al begint te bewegen. Enkele early adopters van STX voor contextueel geheugen zijn onder andere CoreWeave, Crusoe, IREN, Lambda, Mistral AI, Nebius, Oracle Cloud Infrastructure en Vultr. Tegelijkertijd werken opslagleveranciers zoals Cloudian, DDN, Dell Technologies, Hitachi Vantara, HPE, IBM, MinIO, NetApp, Nutanix, VAST Data en WEKA aan deze architectuur, terwijl fabrikanten als AIC, Supermicro en QCT systemen gebaseerd op STX voorbereiden.

Het feit dat zowel hyperscalers als gespecialiseerde opslagbedrijven in deze lijst voorkomen, is geen toeval. STX is bedoeld als referentie-architectuur, niet als een afgesloten product. NVIDIA biedt geen kant-en-klare rackoplossing aan, maar een ontwerprecepten en frameworks waarmee partners modulaire platformen kunnen bouwen die voldoen aan de eisen van geavanceerde inferentie en analyse in zakelijke AI-omgevingen. Dit benadert hetzelfde strategische model als in andere lagen van het software- en hardwarestack: de technische richting aangeven, de onderlinge koppelingen bepalen en het ecosysteem de rest laten invullen. De omschrijving van STX als reference architecture en het belang dat NVIDIA hecht aan haar samenwerkingspartners en supply chain onderstrepen dat deze aanpak fundamenteel is voor de toekomst.

Voor de markt betekent dit dat de AI-strijd niet alleen om modellen draait, maar om de hele data-infrastructuur die eromheen gebouwd wordt. Als agentsystemen met lange histories, documenten, tools, operationeel geheugen en continue inferentierondes gaan werken, wordt opslagprestatie een kritieke factor. NVIDIA positioneert zich hier bewust en breidt haar invloed uit van computationele acceleratie naar volledige AI-datacenterinfrastructuur.

De eerste systemen gebaseerd op BlueField-4 STX zullen beschikbaar komen via samenwerkingspartners in de tweede helft van 2026. De daadwerkelijke adoptie zal dus de komende maanden duidelijker worden. Maar de strategische boodschap is helder: voor NVIDIA ligt de toekomst van agent-gestuurde AI niet alleen in krachtigere GPU’s, maar in het herontwerp van de knooppunten tussen computation, netwerk, geheugen en opslag.

Scroll naar boven