Tijdens de Consumer Electronics Show (CES) 2026 in Las Vegas presenteerde NVIDIA een ambitieuze nieuwe visioen voor de toekomst van computing en kunstmatige intelligentie (AI). In plaats van enkel een nieuwe reeks producten te introduceren, stelde het bedrijf een compleet “platformvisie” voor die de manier waarop AI wordt ontwikkeld, ingezet en beheerd volledig wil transformeren.
CEO Jensen Huang betrad het podium in het Fontainebleau-hotel met een duidelijke boodschap: AI is niet langer een laag binnen software (een “layer”), maar de motor die het volledige computing-stacks herstructureert – van het silicium tot het netwerk, opslag en de modellen zelf. Deze aanpak weerspiegelt een enorme verschuiving in de strategische koers van NVIDIA, waarbij de focus ligt op het bouwen van geïntegreerde, high-performance platformen.
Volgens NVIDIA rust deze visie op drie pijlers voor de komende jaren. Ten eerste introduceert het bedrijf “Rubin”, een nieuwe AI-architectuur die extreem-co-designed is en bestaat uit zes chips. Deze platformstrategie moet de kosten per token drastisch verlagen en de schaalbaarheid van AI-initiatieven praktisch industrialiseren. Het tweede pijlerbeleid betreft open modellen per domein, waarmee NVIDIA zich positioneert als een centrale ontwikkelaar van herbruikbare AI-bases voor sectoren zoals gezondheidszorg, klimaat, robotica en autonoom rijden. Ten slotte presenteert het bedrijf een infrastructuur die zich richt op “AI-agents”, waarbij de context of “geheugen” bij lange conversaties en complexe taken een cruciale rol speelt.
Een van de meest opvallende aankondigingen binnen deze visie is “Rubin”, een platform dat bestaat uit zes strategische chips: GPU’s die 50 petaflops inferentie verwerken, CPU’s gericht op data beweging, en geavanceerde connectiviteit zoals NVLink-6 en Spectrum-X Ethernet Photonics voor schaalvergroting. Daarnaast omvat de platformstrategie ConnectX-9 SuperNICs en BlueField-4 DPUs, die de infrastructuur voorzien van snelle verbindingen en hardwareversnelling. Het primaire doel: de kosten van AI-uitrol voor grote systemen verminderen tot ongeveer een tiende van de huidige, wat een enorme sprong betekent richting meer industrie- en commerciële toepassingen.
Een andere belangrijke uitdaging die NVIDIA adresseert, is het beheer van uitgebreide contexten in AI-systemen, vooral wanneer systemen lange gesprekken voeren of complexe, multimodale taken uitvoeren. De beperking van de “KV-cache” (key-value cache), die geheugen voor het contextbewustzijn biedt, vormt een knelpunt omdat deze niet onbeperkt in GPU’s kan blijven zonder prestatieverlies. NVIDIA introduceert daarom een nieuw “AI-native storage”: een geavanceerde, buiten-GPU laag voor contextgeheugen, die de “Inference Context Memory Storage Platform” heet. Dit is een opslaglaag gebaseerd op BlueField-4 chips en belooft vermogen tot 5 keer meer tokens per seconde, 5 keer betere kostenprestaties en energiebesparing.
Daarnaast zet NVIDIA in op open modellen, georganiseerd per domein zoals gezondheid met “Clara”, klimaat met “Earth-2” en autonome voertuigen met “Alpamayo”. Deze modellen worden getraind op supercomputers van NVIDIA en worden aangeboden als herbruikbare basismodellen om de ontwikkeling te versnellen. In het bijzonder richt “Alpamayo” zich op het omgaan met “long tail” scenario’s in autonome rijtuigen, scenario’s die zelden voorkomen maar van cruciaal belang zijn voor veiligheid en betrouwbaarheid. Zowel het modellandschap als de simulator “AlpaSim” spelen een sleutelrol om deze complexe situaties op een veilige en efficiënte manier te ontwikkelen en testen.
Tot slot benadrukte NVIDIA dat AI niet alleen datacenters hoeft te blijven; zij wil dat AI ook lokaal en persoonlijk wordt. Demonstraties toonden agenten die draaien op de NVIDIA DGX Spark-servers, gekoppeld aan robots zoals Reachy Mini en met modellen van Hugging Face. Dit opent de deur naar AI-inzet in kleine apparaten, robots en zelfs op de werkvloer.
Aan de creatieve en gaming-fronten lanceerde NVIDIA DLSS 4.5, met verbeterde multi-frame generatie en nieuwe functies die de grafische kwaliteit en prestaties verder verhogen. Meer dan 250 games en applicaties ondersteunen inmiddels DLSS 4, wat onderstreept dat NVIDIA’s ecosysteem nog steeds een leidende rol speelt in zowel grafische technologie als contentcreatie.
Door deze strategische verschuivingen en innovaties wil NVIDIA zich positioneren als de centrale motor achter de “next-gen” AI-infrastructuur, waarin kosten, efficiëntie, schaalbaarheid en contextbeheersing centraal staan. Het is duidelijk dat de technologie zich niet meer beperkt tot snelle GPU’s, maar nu gaat om volledige platformen die alle elementen van computing en AI in één geïntegreerd ecosysteem brengen.
