NVIDIA verkoopt haar laatste aandelen in Arm en opent de debat weer: is ARM voldoende voor het tijdperk van de agente AI?

NVIDIA heeft — op zijn minst op financieel vlak — een van de meest symbolische hoofdstukken uit haar recente geschiedenis afgesloten: het bedrijf heeft haar laatste belang in Arm Holdings afgestaan. Volgens gegevens uit regelgevende documenten omvat de verkoop 1,1 miljoen aandelen, ter waarde van ongeveer US$ 140 miljoen, en zou deze transactie hebben plaatsgevonden in het vierde kwartaal van 2025. Daarmee is haar positie in Arm volledig geëlimineerd.

Dit is niet slechts een boekhoudkundige beweging. Het komt op een moment waarop de sector het belang van de CPU heroverweegt in de nieuwe golf van AI-gestuurde systemen: assistenten die stappen kunnen uitvoeren, tools kunnen aanroepen, geheugen kunnen raadplegen, API-verzoeken kunnen sturen en volledige workflows kunnen coördineren. Die “choreografie” gebeurt niet alleen op de GPU. In veel realistische scenario’s hangt de totale latentie af van minder opvallende onderdelen — rijen, orkestratie, netwerken, caches, serialisatie van gegevens — waar de CPU opnieuw een centrale rol speelt.

Een verandering met geheugen: van gefaalde overname tot volledige afstoting

Om te begrijpen waarom deze verkoop zo veel aandacht kreeg, moeten we terug in de tijd. NVIDIA had in 2020 een akkoord gesloten voor de overname van Arm voor ongeveer US$ 40 miljard. Deze operatie viel echter in 2022 uiteen na intensieve regulatoire druk in verschillende markten. Sindsdien bleef Arm haar beursgang vervolgen, terwijl NVIDIA een minderheidsbelang behield dat nu volledig is uitgebannen.

De officiële en meest voorzichtige interpretatie is die van portefeuilleoptimalisatie: kapitaal vrijmaken, exposure vereenvoudigen en de geschiedenis achter je laten. Maar de context maakt dat velen deze beslissing beschouwen als een indirect signaal binnen een bredere discussie: welke CPU-architectuur ‘past het best’ als AI niet alleen wordt getraind, maar ook in productie wordt ingezet, agents en miljoenen microtaken per seconde.

ARM vs x86: de terugkerende discussie aan de inferentiepoort

Jarenlang werd Arm geassocieerd met efficiëntie en schaalbaarheid, en NVIDIA omarmde dat stevig: haar ontwerpen met Arm-CPU’s vinden we terug in datacenters en supercomputers. Toch komen er nu ongemakkelijke nuances naar voren in het agent-georiënteerde tijdperk.

Een deel van het technische argument draait om het feit dat veel agent-scenario’s pieken in prestaties per draad en responsetijden vereisen, naast een integratie in bedrijfs-ecosystemen waar x86 nog steeds de “natuurlijke taal” is: hypervisors, toolchains, bibliotheken, legacy-omgevingen, basisafbeeldingen, historische optimalisaties en decennia aan operaties. Met andere woorden: voor een bedrijf betekent de overstap naar een andere architectuur niet alleen de server, maar alles eromheen.

De praktische sleutel voor systeem- en ontwikkelteams is dat de knelpunt vaak niet duidelijk zichtbaar is met een bordje. Soms ligt de GPU “stil” te wachten op een beslissing van de agent; andere keren ligt het probleem in de pijplijn (rijen, IO, netwerken, tokenisatie, compressie, RPC’s, caches). In dat soort wereld bepaalt de CPU het tempo meer dan veel aankoopbudgetten twee jaar geleden aannamen.

Vera, Rubin en de voortzetting van ARM… met een open deur naar x86

Hier wordt de discussie interessant: NVIDIA lijkt niet af te zien van Arm in haar producten, hoewel ze wel afscheid heeft genomen van haar aandelenbelang.

In haar openbare roadmap heeft het bedrijf de Vera Rubin-platform gepresenteerd, waarbij de CPU “Vera” is gebaseerd op Arm (met een eigen ontwerp en focus op schaalbare AI-prestaties). Dit betekent dat op architectuurniveau Arm nog steeds binnen de visie van NVIDIA voor datacenters blijft.

Maar tegelijkertijd verschijnen er signalen van strategische toenadering tot x86. Zo is er gerapporteerd over een belangrijke samenwerking met Intel, waarbij technologieën worden geïntegreerd en er een industriële relatie ontstaat die door veel analisten wordt geïnterpreteerd als een poging om wrijving met het x86-universum te verminderen, vooral in deployments waar compatibiliteit en inertie even belangrijk zijn als brute prestaties.

In dat datacentermodel betekent het dat hoewel de “eigen” CPU nog steeds gebaseerd kan zijn op Arm in bepaalde systemen, het ecosysteem mogelijk zal evolueren naar meer heterogene racks en platforms. Daarin kunnen accelerators, hoge-snelheid netwerken en CPUs (zowel x86 als Arm) naast elkaar bestaan, afhankelijk van doel, software, leverancier en de operationele context van de klant.

Wat betekent dit voor systeembeheerders en ontwikkelaars?

Voor technische professionals draait het niet alleen om aandelen, maar om keuzes:

  • Platformplanning: als jouw AI-strategie agents omvat (niet alleen chat), begin dan CPU’s te zien als een kritieke resource: latency per oproep, rijen, p95/p99-tijden, draad-saturaties en overhead van tools.
  • Compatibiliteit en technische schuld: bij bedrijven met veel legacy blijft x86 de winnaar door organisatorische wrijving. Arm kan schitteren, maar het migreren van runtimes en pipelines is niet “alleen hercompileren”.
  • Heterogene architecturen: de trend is juist meer mengen, niet minder. Minder dogma (“alles GPU / alles Arm”) en meer engineering (“dit vereist piek per draad, dat throughput, dat compatibiliteit”).
  • Inköpen met een visie voor de komende 3 jaar: AI-gestuurde systemen verschuiven de kostenbasis: het kost niet alleen training, maar ook serving; en dat vereist end-to-end efficiëntie.

Uiteindelijk doet de verkoop van de laatste Arm-aandelen niet af aan een bepaalde architectuur. Wat het wel duidelijk maakt, is dat de strijd in AI niet meer alleen op de GPU wordt uitgevochten. En zodra de markt dat inziet, wordt de CPU opnieuw een strategisch strijdveld, en niet langer “de altijd-winnaar”.

Veelgestelde vragen

Waarom is de verkoop van Arm-aandelen door NVIDIA belangrijk?
Omdat het de aandeelhouderspositie afsluit na de mislukte overnamepoging en precies op het moment dat de industrie opnieuw evalueert welke CPU-architectuur het beste past bij AI-gestuurde inferentie en grootschalige deployment.

Heeft AI-gestuurde systemen meer CPU nodig dan traditionele AI?
Meestal neemt de afhankelijkheid van CPU toe in orchestratie-taken: API-aanroepen, geheugenbeheer, rijen en coördinatie. In veel deployments bepalen de totale latency en de waargenomen prestaties vooral dat “lijm”-proces.

Betekent dit dat NVIDIA Arm zal verlaten voor haar datacenter-CPU’s?
Niet noodzakelijk. De roadmap van NVIDIA voor Vera Rubin bevat nog steeds Arm-gebaseerde CPU’s, wat duidt op voortzetting op technisch niveau, ondanks de gewijzigde financiële positie.

Waar moet systeemteams op letten bij het inzetten van AI-agents?
Let op latency (p95/p99), draad-saturatie, IO- en netwerk-tijden, interne rijen en operationele kosten voor compatibiliteit (containers, libraries, hypervisors, toolchains), omdat de bottleneck zich buiten de GPU kan bevinden.

Bron: Bloomberg en WCCFTech

Scroll naar boven