Meta koopt miljoenen Graviton-kernen van AWS om haar intelligente AI te versnellen

Meta heeft een overeenkomst ondertekend met Amazon Web Services (AWS) om tientallen miljoenen AWS Graviton-cores toe te voegen aan haar infrastructuur voor computerdiensten. Deze stap onderstreept een groeiend inzicht in de sector: kunstmatige intelligentie (AI) bestaat niet alleen uit GPU’s. Naarmate AI-modellen evolueren naar systemen die kunnen redeneren, zoeken, code genereren en taken coördineren, stijgt ook de vraag naar efficiënte CPU’s aanzienlijk.

Het akkoord plaatst Meta onder de grootste wereldwijde klanten van Graviton en versterkt een langdurige relatie die het bedrijf al jaren onderhoudt met AWS. Deze stap vormt een verdere toevoeging aan de infrastructuur die Meta nodig heeft voor haar volgende AI-generatie, met name voor agent-gedreven workloads, waarbij systemen niet enkel reageren, maar meerdere stappen tellende processen uitvoeren.

Agent-gestuurde AI heeft ook CPU’s nodig, niet alleen GPU’s

De ontwikkeling van AI wordt vaak vooral geassocieerd met GPU’s. NVIDIA is hét symbool geworden voor het trainen van grote modellen, en veel investeringen van hyper-scaleers richten zich op clusters van accelerators. Maar dit is slechts een deel van het verhaal. Wanneer een AI-systeem miljoenen of miljarden interacties moet afhandelen, informatie moet zoeken, tools moet aanroepen, code moet genereren, agenten moet coördineren en real-time antwoorden moet geven, wordt de CPU weer centraal in de architectuur geplaatst.

Daarom is de samenwerking tussen Meta en AWS zo relevant. Volgens Amazon wordt de initiële inzet van decennia miljoenen Graviton-kernen uitgerold, met de mogelijkheid tot verdere uitbreiding naarmate Meta’s behoeften toenemen. Deze processoren worden ingezet voor verschillende workloads, waaronder AI-activiteiten.

Het verschil is significant. Het trainen van grote AI-modellen vereist vaak GPU’s of gespecialiseerde accelerators. Het op grote schaal uitvoeren van AI-diensten, het orkestreren van agenten, verwerken van verzoeken, zoeken en het beheren van complexe workflows vertrouwen echter veel meer op CPU’s, geheugen, netwerk en energie-efficiëntie. Generatieve AI wordt getraind in grote fabriken van acceleratoren, maar veel dagelijkse functies draaien op geoptimaliseerde algehele compute-lagen.

Meta legt uit dat diversificatie prioriteit heeft. Santosh Janardhan, hoofd infrastructuur bij Meta, benadrukt dat het diversifiëren van compute-bronnen een strategische prioriteit is terwijl Meta haar AI-infrastructuur opschaalt. AWS ziet het pact als een bevestiging van haar eigen siliconestrategie.

Graviton5: 192 cores en een duidelijke focus op Arm

De kerntechnologie van de aankondiging is de Graviton5, de nieuwste generatie processors ontworpen door AWS. Deze chip beschikt over 192 cores, vijf keer meer cache dan de vorige generatie, en kan volgens Amazon communicatievertraging tussen cores met wel 33% verminderen. AWS claimt dat de Graviton5 tot 25% meer prestaties levert dan de Graviton4.

De sprong in prestaties wordt niet alleen veroorzaakt door het aantal cores. Agent-gedreven workloads genereren vaak meerdere gelijktijdige processen, externe service-aanroepen, inferenties en coördinatie-operaties. In dat scenario kunnen grotere caches, hogere bandbreedte en lagere latentie belangrijke kosten- en prestatiedifferentiators zijn, vooral wanneer miljoenen cores worden ingezet.

De Graviton5 wordt geproduceerd met 3-nanometer technologie en maakt gebruik van AWS Nitro System, de architectuur die de virtualisatie-, netwerk- en opslagfuncties scheidt in dedicated hardware en software. Dit biedt de mogelijkheid tot bare-metal instances en virtuele omgevingen met directe hardwaretoegang, wat vooral relevant is voor grote klanten met hun eigen virtualisatie- en automatiseringslagen.

Een ander belangrijk element is de ondersteuning van Elastic Fabric Adapter (EFA), AWS-technologie voor lage-latentie en hoge-bandbreedte communicatie tussen instances. In gedistribueerde AI-workloads kan het netwerk net zo’n bottleneck vormen als de processor zelf. Bij veelkoppige systemen is efficiënte onderlinge communicatie cruciaal voor prestatie en kosten.

De inzet van Graviton bevestigt eveneens de vooruitgang van Arm in datacenters. Jarenlang domineerde de x86-architectuur de zakelijke compute-markt, maar AWS veranderde dat met haar eigen Arm-cores, eerst als een kosten-prestatie-geoptimaliseerd alternatief voor cloud-workloads, en nu ook voor grootschalige AI-infrastructuur.

AWS wint aan invloed ten opzichte van GPU-dominantie

Voor AWS komt deze overeenkomst met Meta op een cruciaal moment. Het bedrijf investeert al jaren in eigen chips, niet alleen met Graviton voor CPU’s, maar ook met Trainium en Inferentia voor AI-trainings- en inferentieworkloads. In een markt waar Microsoft, Google en andere hyper-scaleers ook eigen silicium ontwikkelen, wil AWS kosten verlagen, efficiëntie verbeteren en minder afhankelijk zijn van externe leveranciers.

De boodschap van AWS is duidelijk: niet alles in AI-rekenwerk moet via GPU’s worden opgelost. In sommige scenario’s kunnen op maat gemaakte CPU’s voor de cloud betere operationele kosten en energie-efficiëntie bieden. Dit is vooral relevant nu bedrijven AI-producten op grote schaal willen uitrollen voor veel gebruikers met hoge responsetijden.

Voor Meta is het zeker ook voordelig. Het bedrijf heeft enorme rekenkracht nodig voor haar AI-toepassingen, van assistenten tot functies op Facebook, Instagram, WhatsApp, hardware, en tools voor makers en adverteerders. Door te investeren in AWS Graviton wordt de infrastructuur gediversifieerd en wordt minder afhankelijk van GPU’s of eigen datacenters.

De energiedoelstellingen bewaken is eveneens belangrijk. De groeiende vraag naar AI-voor compute verhoogt de druk op datacenters, elektriciteitsnetten en kapitaaluitgaven. AWS benadrukt dat Graviton5 hogere prestaties biedt met behoud van een hoge energie-efficiëntie. Voor bedrijven als Meta, die duurzaamheidsverplichtingen aangaan, kunnen verbeteringen in prestaties per watt doorslaggevend zijn.

Het akkoord verandert niet direct de marktverhoudingen voor chips, maar zendt een belangrijke boodschap uit: grote platformen ontwerpen hun AI-architecturen steeds meer als een mix van accelerators, op maat gemaakte CPU’s, snellere netwerken en gedistribueerde opslag. GPU’s blijven essentieel voor het trainen en uitvoeren van modellen, maar de infrastructuur voor het massaal dienstbaar maken van deze modellen wordt veelzijdiger.

Voor Meta betekent Graviton meer capaciteit én flexibiliteit. Voor AWS is het bewijs dat eigen processors de interesse kunnen wekken van de grootste AI-infrastructuurgebruiker ter wereld. Voor de sector betekent het dat de volgende fase van AI niet alleen in de chips ligt die het zichtbare bedienen, maar vooral in de onderliggende layers achter de schermen, vaak onzichtbaar voor gebruikers.

Veelgestelde vragen

Wat is de inhoud van de overeenkomst tussen Meta en AWS?
Meta gaat tientallen miljoenen AWS Graviton-cores inzetten in haar infrastructuur voor AI-workloads, inclusief agent-gestuurde AI-functies.

Wat is AWS Graviton?
AWS Graviton is een familie van ARM-gebaseerde processors ontworpen door Amazon Web Services die hoge prestaties, energie-efficiëntie en kostenbeheersing bieden voor cloud-werkbelastingen.

Waarom heeft Meta CPU’s nodig voor AI?
Omdat veel agent-gestuurde AI-taken, zoals real-time redenering, codegeneratie, zoeken en taakcoördinatie, sterk afhankelijk zijn van CPU, netwerk en geheugen, naast GPU.

Vervangt Graviton GPU’s in AI?
Nee. GPU’s blijven essentieel voor het trainen en runnen van veel modellen. Graviton vult andere taken in, vooral die waarbij algemeen doelgerichte en efficiënte compute op grote schaal vereist is.

Scroll naar boven