ARM wil dat de discussie over kunstmatige intelligentie niet alleen meer draait om GPU’s. Het Britse bedrijf, dat decennia lang bekend stond om het licentiëren van efficiënte architecturen voor mobiele apparaten, embedded systemen en aangepaste chips, benadrukt nu in datacenters een helderder standpunt: de komende grote strijd wordt niet alleen bepaald door het verkoopvolume van processoren, maar door het aantal CPU-kernen dat wordt ingezet om steeds complexere AI-systemen te coördineren, aan te sturen en te beheren.
Rene Haas, CEO van ARM, stelde tijdens de nieuwste kwartaalpresentatie dat de groei van AI-agenten de behoefte aan CPU’s in datacenters gigantisch zal doen toenemen. Volgens hem functioneren AI-agenten niet alleen bij enkele zoekopdrachten, maar orchestreren ze taken, verplaatsen data, beheren geheugen, coördineren versnellers en voeren processen parallel uit. In dat licht ziet ARM mogelijk een toekomst met chips van wel 256 en zelfs 512 kernen, een capaciteit die enkele jaren geleden nog vooral voor supercomputers weggelegd leek en niet voor commerciële infrastructuur.
De CPU wordt opnieuw centraal in AI
De boodschap van ARM komt op een moment dat de markt begint te corrigeren een te simplistisch beeld: AI-infrastructuur draait niet uitsluitend op GPU’s. Hoewel GPU’s en gespecialiseerde versnellingschips nog steeds de meest prominente rol spelen bij grootschalige training en inferentie, zijn CPU’s essentieel voor de omliggende ondersteuning. Deze CPU’s functioneren als control noden, coördineren workflow, bereiden data voor, beheren netwerken, beveiliging, geheugen, opslag en taakplanning.
ARM verwacht dat datacenters hun CPU-capaciteit zullen verdrievoudigen om te voldoen aan de groei van AI-agenten. Het bedrijf schat dat deze verandering een marktpotentieel van meer dan 100 miljard dollar in CPU’s voor datacenters kan openen tegen 2030. AMD heeft haar marktprognoses voor server-CPU’s zelfs verhoogd tot meer dan 120 miljard dollar voor datzelfde jaar, met een jaarlijkse groeisnelheid van meer dan 35%, gedreven door de vraag naar AI-infrastructuur.
De notitie over 500 kernen is geen concreet product met vaste lanceerdatum of naam, maar een technische stip op de horizon die Haas schetst. Tijdens een analystencall noemde hij dat de ARM AGI CPU al 136 kernen heeft, tegenover 88 kernen bij NVIDIA Vera, en hij stelde zich voor dat in de komende jaren ontwerpen met 256 of zelfs 512 kernen haalbaar zijn. Volgens ARM ligt de focus niet alleen op het verhogen van het aantal kernen, maar vooral op het doen met efficiëntie per kern.
Het belang hiervan mag niet worden onderschat. Een “CPU van 500 kernen” klinkt indrukwekkend, maar dit betreft geen formeel product of aankondiging voor 2030. Het is vooral een strategische aanwijzing: ARM gelooft dat de markt voor AI puur op generalistische processoren met veel kernen zal uitkomen, waarbij gebruik wordt gemaakt van de voordelen van hun architectuur in schaalbaarheid, efficiëntie en energieverbruik.
ARM versus x86: minder afhankelijkheid, meer maatwerk
De onderliggende strijd is er een tegen de dominante positie van x86 in servers, sinds decennia gecontroleerd door Intel en steeds sterker door AMD. ARM concurreert niet alleen op prestatie; het biedt ook een licentiearchitectuur die grote klanten in staat stelt om eigen chips te ontwerpen of bestaande oplossingen aan te passen aan specifieke workloads.
Daarbij komen de hyperscalers. AWS ontwikkelt al jaren de Graviton-servers, Google presenteerde Axion, Microsoft werkt met Cobalt en NVIDIA gebruikt ARM-CPU’s in Vera. Volgens ARM integreren grote cloudproviders al CPU’s gebaseerd op ARM naast hun AI-versnellingsplatforms. De duidelijke boodschap is dat deze giganten de afhankelijkheid van Intel en AMD willen verminderen voor verschillende lagen van de infrastructuur.
Dit betekent niet dat x86 meteen verdwijnt. AMD presteert momenteel uitstekend met EPYC-servers, en Intel heeft nog altijd een grote installatieschil, stevige klantrelaties en eigen productiefaciliteiten. Maar de markt wordt fragmentarischer. Waar vroeger veel bedrijven standaardservers kochten, ontwerpen grote spelers nu hun infrastructuur zelf – inclusief CPU, accelerators, netwerk, geheugen, opslag en software – alles afgestemd op hun eigen behoeften.
ARM streeft ernaar een centrale rol te spelen in deze nieuwe opschaling. Hun strategie is niet meer alleen licentieverkoop voor andere chipfabrikanten; met de ARM AGI CPU stapt het bedrijf over op eigen silicium voor datacenters, terwijl het hun traditionele licentie- en royaltybusiness behoudt. Dit brengt delicate spanningen met zich mee bij klanten die ook ARM-onderdelen maken, maar ARM benadrukt dat beide activiteiten elkaar aanvullen.
Haas meldde dat ARM al voor meer dan 2 miljard dollar aan vraag naar de AGI CPU voorziet voor 2027 en 2028, meer dan het dubbele van eerdere schattingen. Reuters nuanceerde dat de uiteindelijke productiecapaciteit momenteel nog primair gericht is op de eerste 1 miljard dollar, en dat de capaciteit voor het tweede deel nog niet zeker is, vanwege ketenbeperkingen. De marktvraag is er dus wel, maar de leveringsketen vormt nog een uitdaging.
CPU-kernen zijn niet gelijk aan GPU-kernen
Vergelijkingen tussen CPU- en GPU-kernen moeten voorzichtig worden gemaakt. Een CPU-kern is niet hetzelfde als een CUDA-core, shader, Tensor Core of een gespecialiseerde unit in een moderne GPU. Ze dienen verschillende doelen, werken met verschillende paralellismes, en hebben verschillende relaties tussen controle, latency, geheugen en hoge rekenkracht.
ARM wil niet dat dit wordt geïnterpreteerd als “CPU’s zullen GPU’s overtreffen”. Het gaat erom dat, ondanks dat het fysieke aantal CPU- en GPU-kernen mogelijk niet veel verschilt, de verhouding tussen het aantal CPU-kernen dat wordt ingezet in datacenters wel flink kan groeien. Grote AI-hallen kunnen volledige racks krijgen met CPU’s voor orkestratie, planning en agentmanagement, naast racks met accelerators.
Neem bijvoorbeeld NVIDIA Vera. Haas verwees naar het NVIDIA rack met 256 Vera-chips van 88 kernen, gekoeld door vloeistof, met een vermogen van 200 kW, ontworpen om naast systemen zoals Vera Rubin te draaien. Dit illustreert dat zelfs een standaard grote GPU-architectuur wordt versterkt door een uitgebreide CPU-laag voor coördinatie en beheer.
De reden is simpel: AI-agenten zijn niet alleen grote matrixtellingen, maar vereisen ook logica, coördinatie, geheugenbeheer, API-aanroepen, interactie met databases, beveiliging, taakwachtrijen en beslissingsketens. Voor dit soort taken kunnen efficiënte CPU’s net zo belangrijk zijn als de accelerators die de modellen uitvoeren.
Wat betekent dit voor servers, cloud en PC’s?
De trend voor datacentermarkt ligt op steeds dichter op elkaar gestapelde chips met meer kernen, geheugen, bandbreedte en geoptimaliseerde ontwerpen voor energie-efficiëntie per rack. Belangrijker dan prestaties per socket wordt nu het rendement per watt, per rack, per euro en per AI-lading.
Voor zakelijke klanten betekent dit meer keuzemogelijkheden. Cloud-instanties gebaseerd op x86, ARM, eigen versnellingskaarten en combinaties worden steeds gebruikelijker. Bedrijven zullen niet per se CPU’s met 512 kernen kopen, maar wel clouddiensten afnemen die op die architectuur gebaseerd zijn. Beslissingen worden vooral gestuurd door kosten, latency, softwarecompatibiliteit en energie-efficiëntie.
Voor PC’s en laptops is de interpretatie anders. De race om 500 kernen is vooral relevant voor datacenters, niet voor persoonlijke apparaten. In consumententoepassingen blijft ARM vooral gericht op efficiëntie, autonomie en lokale AI-vaardigheden, vaak via partners zoals Qualcomm en Apple. Het is niet realistisch om een CPU met honderden kernen direct in een laptop te plaatsen; dat zijn twee verschillende markten met gedeelde architectuur en ontwikkeltools.
ARM zal dus moeten bewijzen dat ze kunnen opschalen zonder hun voordelen te verliezen. Meer kernen brengen meer complexiteit mee op het vlak van geheugen, coherentie, connectiviteit, software en planning. Hardware wint pas als het ecosysteem dat kan benutten. In servers houdt x86 een grote voorsprong op compatibiliteit, maar Linux, Kubernetes, databases en cloud-native workloads hebben de gemeenschappelijkheid van ARM behoorlijk vergemakkelijkt.
ARM mikt op een ambitieuze strategie in een periode van echte verandering. AI-agenten zetten niet alleen GPU’s onder druk; ze brengen ook de CPU opnieuw in de rol van coördinator en ‘brain’ van de infrastructuur. Als ARM erin slaagt om efficiëntie en maatwerk te vertalen naar een groter marktaandeel, krijgen Intel en AMD een moeilijkere tegenstander op de belangrijkste plek: het datacenter.
Een CPU met 512 kernen is nog geen product dat je meteen kunt bestellen; het is meer een strategische verklaring over de richting die de industrie opgaat. En die richting lijkt duidelijk: meer kernen, meer efficiëntie, meer integratie en een verschuiving van de focus van traditionele serverarchitecturen naar volledige AI-infrastructuren.
Veelgestelde vragen
Heeft ARM officieel een CPU met 500 kernen aangekondigd?
Nee, niet als concreet product. CEO Rene Haas heeft aangegeven dat ontwerpen met 256 of 512 kernen mogelijk zijn in de komende jaren, als onderdeel van de evolutie van CPU’s voor datacenters en AI.
Waarom heeft AI zoveel CPU’s nodig als GPU’s al het zware rekenwerk doen?
GPU’s voeren het grootste deel van de intensieve berekeningen uit, maar CPU’s regelen taken, beheren geheugen en data, netwerken, beveiliging, orkestratie en agenten. Bij AI-agenten wordt de algemene taaklast aanzienlijk groter.
Kan ARM echt concurreren met Intel en AMD in servers?
Ja, vooral in cloud- en hyperscaler-omgevingen waar al aangepaste ARM-chips zoals AWS Graviton, Google Axion en Microsoft Cobalt worden ingezet. In traditionele bedrijfsservers blijft x86 echter de dominante kracht.
Zullen we 500-kern CPU’s zien in laptops?
De kans is klein. Dit soort schaal is voornamelijk bedoeld voor datacenters. In laptops en desktops blijft ARM gericht op efficiëntie, autonomie en lokale AI, met veel minder kernen.
vía: MyDrivers
