De afgelopen twee jaar heeft het gesprek over AI-infrastructuur zich vrijwel volledig gericht op GPU’s. NVIDIA is onmiskenbaar geworden, de hyper-scaler bedrijven streden om snelle accelerators te bemachtigen en HBM-geheugen werd een strategisch actief. Maar de volgende fase van AI kan het patroon weer laten verschuiven naar een component dat veel mensen als secundair beschouwden in deze race: de server-CPU.
De reden ligt in de agentgerichte AI. Terwijl modellen niet langer beperkt blijven tot het beantwoorden van vragen, maar beginnen met het uitvoeren van workflows, het aanroepen van tools, het coördineren van taken, het raadplegen van databases, het verplaatsen van gegevens en het handelen op applicaties, groeit de behoefte aan processoren die dat alles kunnen orkestreren. GPU’s blijven essentieel voor intensieve training en inferentie, maar de CPU wint terrein als controlelaag, coördinator en algemene executor.
UBS ziet een veel grotere markt voor CPU’s dan verwacht
Volgens een rapport van UBS, overgenomen door diverse financiële en technologische media, zou de totale markt voor CPU’s in servers kunnen stijgen van ongeveer 30 miljard dollar in 2025 tot circa 170 miljard dollar in 2030. Het is een ambitieuze voorspelling die als zodanig moet worden geïnterpreteerd, maar het geeft wel een verandering in perceptie weer: AI verbruikt niet alleen accelerators, maar heeft ook meer algemene rekenkracht nodig om die accelerators nuttig te laten werken.
UBS stelt dat agentgerichte workloads het aantal benodigde CPU-kernen per gebruiker en GPU kunnen doen verviervoudigen of zelfs verviervoudigen tot vijf keer. Het gaat niet alleen om het hosten van modellen, maar om het beheren van duizenden of miljoenen kleine beslissingen rondom deze modellen: context klaarmaken, taken opsplitsen, code uitvoeren, resultaten valideren, verzoeken routeren, sessies onderhouden, permissies toepassen en agenten coördineren.
In dat scenario ziet UBS Arm als de potentiële grote winnaar, met een marktaandeel dat tegen 2030 tot 40-45% van de server-CPU markt kan uitgroeien. AMD wordt gezien als de tweede natuurlijke winnaar dankzij zijn EPYC-processors met veel cores en hoge prestaties per watt. Intel profiteert ook van de marktgroei, maar moet aantonen dat haar komende platforms kunnen concurreren op dichtheid, efficiëntie en kosten.
Voor Intel is dat een ongemakkelijke conclusie, omdat het heropleven van de CPU niet garandeert dat alle leveranciers hier evenveel van profiteren. Als de vraag verschuift naar meer cores, lager energieverbruik en zeer flexibele ontwerpen voor AI-centra, kunnen Arm en AMD een groter deel van de groei opvangen. Intel, dat decennia lang de server-CPU-markt domineerde, staat voor een markt die blijft groeien maar ook ingrijpend verandert.
De CPU als control layer voor AI
Intel was een van de eerste bedrijven die probeerden de narratief te draaien. Tijdens de resultatenpresentatie van het eerste kwartaal van 2026 stelde Lip-Bu Tan dat de CPU zich weer vestigt als een essentiële basis voor het tijdperk van AI. Volgens de CEO van Intel fungeert de CPU als een orkestratielaag en cruciaal controlevlak voor de volledige AI-stapel.
Dit sluit aan bij wat AMD ook zegt. Lisa Su benadrukte tijdens de laatste resultatencall dat inferentie en agentgerichte AI de vraag naar high-performance CPU’s en accelerators doen toenemen. AMD rapporteerde een omzet van 10,253 miljard dollar in het eerste kwartaal van 2026, een stijging van 38% jaar-op-jaar, met datacentercashflow die met 57% toenam tot 5,8 miljard dollar. Dat segment is nu de belangrijkste inkomsten- en winstbron voor AMD.
AMD benadrukt dat de nieuwe vraag naar CPU’s niet per se ten koste gaat van GPU-vraag. Het standpunt is dat accelerators nog steeds nodig zijn voor het draaien van fundamentale modellen en zware workloads, terwijl agenten extra werk genereren voor CPU’s. In traditionele setups fungeerde de CPU als host voor vier of acht GPU’s; met veel agenten die taken coördineren, kan die verhouding in enkele implementaties naderen tot één op één.
Het verschil is significant. Klassieke generatieve AI werd vaak gezien als een vraag aan een model. Agentgerichte AI lijkt meer op een keten van acties: een verzoek interpreteren, documentatie raadplegen, een API aanroepen, code genereren, het resultaat reviewen, een validatie vragen, een andere tool inzetten en een antwoord presenteren. Elke stap vereist coördinatie, geheugen, invoer en uitvoer, netwerken en algemene computing.
Waarom Arm en AMD een voorsprong hebben
Arm groeit al jaren in datacenters dankzij cloudproviders die hun eigen chips ontwerpen of efficiëntere architecturen adopteren. AWS Graviton was het meest opvallende voorbeeld, maar de trend verspreidt zich naar andere omgevingen waar prestatie per watt net zo belangrijk is als absolute performance. In agentgerichte AI kan dat voordeel nog zwaarder wegen, omdat veel taken niet een monolithische CPU met maximale kloksnelheid vereisen, maar juist veel efficiënte cores die parallel werken.
Arm positioneert zich met die boodschap: meer efficiëntie, flexibele deployments en de capaciteit om agent workloads te ondersteunen. Het bedrijf produceert zelf geen chips, maar licentieert architecturen die kunnen worden aangepast aan de eigen ontwerpen van hyperscalers, serverbouwers en gespecialiseerde providers.
AMD daarentegen heeft een sterke positie met EPYC. De strategie van veel cores, goede prestaties per socket en efficiëntie heeft de afgelopen jaren zijn weg gevonden in servers. Bovendien kan AMD CPU’s EPYC combineren met accelerators van de Instinct-serie, netwerkproducten, en rackplatforms zoals Helios, waardoor het zich kan profileren als een leverancier van een complete AI-infrastructuur.
Intel behoudt relevante troeven: grote geïnstalleerde basis, zakelijke relaties, eigen productiecapaciteit, geavanceerde verpakkingstechnologie en een roadmap voor CPU’s zoals Coral Rapids. Maar het moet goed uitvoeren, zeker nu de markt verschuift naar meer cores per watt en ontwerpen die beter aansluiten bij agentgerichte workloads. Het historische merk alleen zal niet volstaan als de markt anders gaat bewegen.
Thuiswerk en lokale systemen worden belangrijker
UBS wijst ook op een ander interessant punt: agentgerichte AI zal niet alleen de vraag naar CPU’s in datacenters doen toenemen, maar ook in persoonlijke systemen. Tools zoals Claude Code, ontwikkelaarsassistenten, persoonlijke agents of automatisatieworkflows die op de werkplek draaien, kunnen de behoefte aan CPU, geheugen en NPU in laptops en desktops verhogen.
Dat betekent niet dat alle gebruikers een high-end workstation nodig zullen hebben. Maar het schept wel een marktverschil: zwaardere taken blijven in datacenters, terwijl dagelijks gebruik met AI en automatisering ook op lokaal niveau plaatsvindt, mede vanwege privacy, latency of kosten. In dat segment kunnen AMD en Intel ook profiteren, naast concurrentie van Apple Silicon, Qualcomm en andere Arm-gebaseerde ontwerpen.
De grote uitdaging wordt het vinden van balans tussen cloud en device. Complexere agenten hebben toegang nodig tot grote modellen, bedrijfsgegevens en cloudtools. Veel tussenstappen, zoals context voorbereiding, lichte automatisering, lokaal analyseren of code uitvoeren, kunnen vooral profiteren van krachtigere CPU’s in het apparaat zelf.
Een nieuwe architectuur voor AI-datacenters
De meest ingrijpende consequentie is dat AI-datacenters niet langer alleen worden beoordeeld op het aantal GPU’s. De vraag wordt hoeveel accelerators, CPU’s, geheugen, netwerken, opslag en orkestratiesoftware nodig zijn om betrouwbare workflows met duizenden agenten te supporten.
Dit verandert de economie van de infrastructuur. Een cluster met veel GPU’s maar onvoldoende CPU kan vastlopen op het vlak van orkestratie. Een systeem met efficiënte CPU’s maar onvoldoende accelerators kan geen zware modellen op grote schaal draaien. Succes ligt in het ontwerpen van gebalanceerde systemen, met verhoudingen afgestemd op de workload: training, inferentie, bedrijfsagents, codegeneratie, documentanalyse of operationele automatisering.
De voorspelling van UBS klinkt optimistisch in cijfers, maar wijst op een logische richtlijn: agentgerichte AI maakt het gebruik van meer gedistribueerd en complexer. GPU’s blijven noodzakelijk, maar er komen meer lagen rondom die GPU’s. En daarin speelt de CPU opnieuw een centrale rol.
Voor Intel is dat zowel een kans als een bedreiging. De markt kan explosief groeien, maar niet noodzakelijk volgens de gevestigde regels van het verleden. AMD kan deze gelegenheid aangrijpen om EPYC verder te versterken en een meer omvattend AI-platform te presenteren. Arm kan het momentum benutten om haar aanwezigheid in datacenters te consolideren met een focus op efficiëntie en schaal.
De AI-tijdperk zal niet alleen een oorlog van accelerators worden, maar van volledige systemen. En in die strijd krijgt de CPU opnieuw veel betekenis.
Veelgestelde vragen
Waarom vergroot agentgerichte AI de vraag naar CPU’s?
Omdat agenten niet alleen antwoorden genereren, maar ook taken coördineren, tools aanroepen, data bewegen, processen uitvoeren, permissies beheren en parallelle workflows sturen. Al dat vergt uitgebreide rekenkracht naast GPU.
Zullen CPU’s GPU’s vervangen in AI?
Nee. GPU’s blijven onmisbaar voor intensieve training en inferentie. De rol van CPU’s is dat ze de coördinatie en uitvoering van agentgerichte workloads voor hun rekening nemen, als noodzakelijke aanvulling.
Waarom zou Arm meer kunnen profiteren dan Intel?
Omdat veel agentgerichte workloads de nadruk leggen op het aantal cores en energie-efficiëntie, niet op maximale kloksnelheid. Daar kunnen Arm-architecturen aantrekkelijker zijn voor hyperscalers en AI-servers.
Wat is de rol van AMD in deze ontwikkeling?
AMD kan profiteren door haar met veel cores uitgeruste EPYC-processors en haar complete infrastructuurstrategie met CPU’s, GPU’s, netwerken en rack-platforms voor AI.
