De agentische AI geeft gewicht terug aan de CPU’s en verandert de balans met de GPU’s

In de afgelopen jaren leek het gesprek over infrastructuur voor Kunstmatige Intelligentie (AI) klaar te zijn: GPU’s domineerden, terwijl CPU’s een secundaire rol kregen. Maar deze verdeling begint te veranderen. TrendForce stelt dat de opkomst van AI-agenten — modellen die taken kunnen plannen, tools kunnen aanroepen, subagents kunnen coördineren en acties uitvoeren — de fundamentele architectuur van datacenters aan het herstructureren is en CPU’s weer meer in de spotlight plaatst.

De meest opvallende aanwijzing kwam in maart toen NVIDIA hun Vera CPU als zelfstandig product op de markt bracht en Arm hun eerste eigen datacenter-CPU presenteerde, de Arm AGI CPU. Het feit dat een bedrijf dat bekend staat om GPU’s en een ander dat vooral licenties verstrekt voor architectuur, nu beide de CPU-markt voor servers betreden, lijkt niet toevallig: het weerspiegelt een verandering in de daadwerkelijke vraag vanuit AI-gedreven datacenters.

Bij traditionele modellering wordt de CPU:GPU-verhouding door TrendForce geschat op ongeveer 1:4 tot 1:8. In de wereld van AI-agenten zou die verhouding kunnen verschuiven naar 1:1 of 1:2, omdat de CPU weer essentieel wordt voor kritieke taken zoals orkestratie, controle, evaluatie en datamovement. Arm verwacht bijvoorbeeld dat de vraag kan stijgen van circa 30 miljoen CPU-kernen per gigawatt in klassieke AI-datacenters, tot ongeveer 120 miljoen in scenario’s gedomineerd door agenten.

Waarom AI-agenten meer CPU’s vereisen

De kern ligt in het soort werk. GPU’s blijven onverslaanbaar voor grootschalige parallelle verwerking en matrixberekeningen, die de training en inferentie van modellen aandrijven. Maar AI-agenten doen veel meer dan alleen tokens genereren: ze verdelen taken, coördineren stappen, roepen tools aan, vragen databases, interpreteren code, doorzoeken het web en bepalen of de oorspronkelijke opdracht al is afgehandeld. Dat “verkeersbeheer” wordt hoofdzakelijk door de CPU gedaan.

TrendForce merkt bovendien op dat, met dit soort workloads, de bottlenecks niet langer alleen afhankelijk zijn van de acceleratoren. Bij AI-agenten ontstaan knelpunten door latentie, doorvoer en energieverbruik die gerelateerd zijn aan de generieke processor. Volgens de analyse van de consultant kan het verwerken van tools op CPU’s tot wel 90,6 % van de totale latentie bijdragen in bepaalde workflows, terwijl het dynamisch energieverbruik door CPU’s tot wel 44 % van het totale energieverbruik kan uitmaken bij grote workloads.

De onderstaande tabel geeft eenvoudig weer hoe de rollen van CPU en GPU momenteel verdeeld zijn in AI-omgevingen, gebaseerd op het schema gepubliceerd door TrendForce.

VergelijkingCPUGPU
BerekeningsprincipeComplexe logica en sequentiële verwerkingEenvoudige parallelle berekening
Aantal kernenLaag, enkele tientallen tot honderdenHoog, duizenden tot tienduizenden
Gebruikelijke geheugen TypeDRAMHBM
Rol in AIData preprocessing, planning, orkestratieModelberekening en massa-generatie
Belangrijke fabrikantenIntel, AMD, AmpereNVIDIA, AMD, Intel

De markt beweegt al mee

Deze evenwichtsverschuiving is al duidelijk zichtbaar in het aanbod. NVIDIA Vera beschikt over 88 Olympus-kernen en 176 threads, plus NVLink-C2C met 1,8 TB/s coherente bandbreedte tussen CPU en GPU en tot 1,2 TB/s geheugenbandbreedte. NVIDIA positioneert Vera als een CPU voor versterkt leren, cachebeheer en agenten met veel dataverkeer.

Intussen introducéert Arm AGI CPU tot 136 Arm Neoverse V3-kernen, met 300 W TDP en een focus op AI-agent-infrastructuur, acceleratorcontrole en clouddiensten. Arm presenteert het als de fundering voor agent gebaseerde datacenters en heeft al partners zoals Meta, Cloudflare, OpenAI, SAP en SK Telecom.

Grote cloud providers passen zich ook aan. AWS Graviton5 werd aangekondigd met 192 kernen per chip; Microsoft Cobalt 200 met 132 actieve kernen; en Google Axion N4A wordt geleverd in instantiemogelijkheden tot 64 vCPU’s, waarbij elke vCPU overeenkomt met één fysieke kern zonder SMT. Hiermee wordt bevestigd dat de CPU-markt voor datacenters niet langer alleen in handen is van Intel en AMD.

TrendForce voorziet voor 2026 een nog bredere opmars. In hun voorspellingen voor kern- en draadverdeling worden onder meer AMD EPYC Venice met 256 kernen en 512 threads, Intel Xeon 6+ met 288/288, Intel Xeon 7 met 256/256 en AmpereOne MX met 256/256 genoemd. Het betreft hier vooral prognoses en roadmap-voorspellingen, geen volledige realisaties die al op de markt zijn geïmplementeerd.

De volgende tabel combineert bevestigde modellen met de TrendForce-voorspellingen voor 2026, om te illustreren hoe breed het marktlandschap van CPU’s voor AI en datacenters zich ontwikkelt.

Belangrijke CPU in 2026KernenThreadsSituatie
NVIDIA Vera88176Officieel aangekondigd
Arm AGI CPU136136Officieel aangekondigd
AWS Graviton5192192Officieel aangekondigd
Microsoft Cobalt 200132132Officieel aangekondigd
Google Axion N4A6464Beschikbaar in N4A-instances
AMD EPYC Venice256512TrendForce-voorspelling
Intel Xeon 6+288288TrendForce-voorspelling
Intel Xeon 7256256TrendForce-voorspelling
AmpereOne MX256256TrendForce-voorspelling

Niet het einde van de GPU, maar een nieuwe verdeling

Dit betekent niet dat GPU’s hun centrale rol verliezen. TrendForce benadrukt dat accelerators nog steeds de kern vormen voor intensieve modelberekeningen. Wat wel verandert, is de systeemverdeling: in plaats van een architectuur waarbij bijna alle waarde op de accelerator ligt, vereist AI-agenten meer aandacht voor control, orkestratie en datamanagement op systeemniveau.

Dit verklaart waarom NVIDIA Vera los wil verkopen, waarom Arm de overstap maakt van licentie naar eigen chipproductie, en waarom AWS, Microsoft en Google blijven investeren in hun eigen CPU’s. De komende grote strijd in datacenters draait niet alleen om wie de snelste GPU heeft, maar om wie de beste balans biedt tussen parallel rekenen, orkestratie, latentie, bandbreedte en energie-efficiëntie. Op dat speelveld wordt de CPU opnieuw een strategisch instrument.

Veelgestelde vragen

Waarom heeft AI-agenten meer CPU’s nodig dan een traditioneel Language Model?
Omdat ze niet alleen tekst of antwoorden genereren, maar ook taken coördineren, tools aanroepen, data verplaatsen tussen subagents en resultaten evalueren. Die orkestratielaag ligt bij de CPU.

Welke CPU-GPU-verhouding wordt nu gebruikt, en welke wordt verwacht bij AI-agenten?
TrendForce schat dat de verhouding in traditionele AI-datacenters rond 1:4 tot 1:8 ligt en voorspelt dat die in de wereld van AI-agenten kan verschuiven naar 1:1 of 1:2.

Zal de GPU haar centrale rol in AI verliezen?
Nee. GPU’s blijven essentieel voor massale parallelle verwerking en token-generatie. Maar CPU’s winnen aan belang omdat AI-agenten meer controle, planning en dataverkeer vragen.

Welke fabrikanten zijn het beste gepositioneerd voor deze nieuwe fase?
Intel en AMD blijven belangrijke spelers, maar de markt wordt breder met voorstellen van NVIDIA, Arm en grote cloudproviders zoals AWS, Microsoft en Google.

via: insights.trendforce

Scroll naar boven