Intel en Google versterken hun partnerschap om de AI-infrastructuur te herontwerpen

Intel en Google hebben hun samenwerking voor meerdere jaren uitgebreid om de volgende generatie cloudinfrastructuur en Kunstmatige Intelligentie (AI) te ontwikkelen. Hierin wordt duidelijk benadrukt dat moderne AI niet uitsluitend gebaseerd is op accelerators, maar op heterogene systemen waarin CPU’s en infrastructuurprocessors weer een prominente rol spelen. De aankondiging, gedaan op 9 april, bevestigt dat de Intel Xeon-processors een belangrijke rol blijven spelen binnen Google Cloud en dat beide bedrijven hun co-ontwikkeling van op ASIC gebaseerde IPU’s (Intelligent Processing Units) zullen voortzetten, gericht op het verbeteren van efficiëntie, benutting en prestaties op schaal.

De diepgang van deze alliantie gaat verder dan wat een korte mededeling lijkt te suggereren. Intel probeert de CPU opnieuw centraal te stellen in het AI-debat, juist op het moment dat de markt begint in te zien dat productiesystemen, vooral inferentie en agentgebaseerde toepassingen, niet meer uitsluitend afhankelijk zijn van GPU’s. Google bouwt sinds jaren aan een steeds meer gepersonaliseerde infrastructuur, waar CPU’s, accelerators en gespecialiseerde offloads worden gecombineerd om prestaties en kosten te optimaliseren in de cloud. Deze uitbreiding van het partnerschap past perfect in deze strategische visie en onderstreept dat de volgende fase van AI zowel in systeemarchitectuur als in modelontwikkeling zal worden gespeeld.

Xeon blijft de basis van Google’s cloud

Intel benadrukt dat Google Cloud Xeon-processors zal blijven gebruiken in meerdere generaties voor AI-taken, inferentie en algemeen gebruik. In de aankondiging wordt expliciet vermeld dat Xeon een vaste rol blijft spelen in Google’s internationale infrastructuur en worden bijvoorbeeld de door Google geoptimaliseerde C4-instanties genoemd, die nu beschikbaar zijn met Intel Xeon 6-processors. In juli 2025 maakte Google Cloud de algemene beschikbaarheid bekend van de C4-instanties, gebaseerd op Granite Rapids-processors, en positioneerde ze als essentiële VM’s voor workloads met hoge prestatie-eisen.

Dit is cruciaal omdat het een simplistische narratief doorbreekt, dat de afgelopen twee jaar suggereerde dat CPU’s aan belang zouden inboeten ten opzichte van GPU’s en TPU’s. Wat Intel en Google nu benadrukken, is dat naarmate AI zich verplaatst van puur trainen naar inferentie, agentcoördinatie, pre-processing en systeemarchitectuur, de CPU weer een essentiële rol speelt binnen het totale evenwicht. Een bericht dat bijvoorbeeld Reuters samenvatte door te stellen dat de opkomst van nieuwe AI-workloads de vraag naar CPU’s voor inferentie en deployment vergroot, niet alleen voor training.

IPU’s krijgen opnieuw een centrale rol in efficiëntie

Een andere pijler van het akkoord betreft IPU’s. Intel en Google werken aan het uitbreiden van de ontwikkeling van op ASIC gebaseerde infrastructuurprocessors om functies zoals netwerk, opslag en beveiliging van de CPU los te koppelen. Het doel is een betere benutting van hostresources, voorspelbaardere prestaties en betere schaalbaarheid in hyperschaalomgevingen waar AI-belastingen samengaan met grote traficeisen, isolatie- en opslagsystemen.

Deze aanpak is niet nieuw; al in 2022 introduceerde Google Cloud de C3-instanties, de eerste publieke cloud VM’s met een vierde generatie Intel Xeon en een op maat gemaakte Intel IPU, ontwikkeld samen met Google. Destijds werden deze hardware-ontlaadingen gepresenteerd als middelen voor hogere voorspelbaarheid en efficiëntie, met snellere netwerken, opslag en lagere latentie. Het verschil nu is dat zowel Intel als Google IPU’s strategisch meer zichtbaar maken binnen de nieuwe heterogene AI-infrastructuur.

De toonverandering is significant. Vroeger werden dergelijke oplossingen niet meer gepresenteerd dan marginale infrastructuurverbeteringen voor de eindgebruiker. Nu worden ze erkend als kerncomponenten voor de prestaties en efficiëntie van moderne AI-systemen. En dat is logisch: naarmate inferentie, netwerkmobiliteit en dataverplaatsing toenemen, wordt het strategisch voordeel van het afschalen van herhalende taken uit de hoofd-CPU steeds belangrijker.

De boodschap: AI wordt niet meer rondom één chip gebouwd

Het meest strategische aspect van deze aankondiging is de onderliggende visie. Intel benadrukt dat “AI niet alleen draait op accelerators, maar op systemen”, terwijl Google AI-infrastructuur beschouwt als een combinatie van CPU’s en gespecialiseerde hardware, vanaf training tot inferentie en uitrol. In marktvertaal betekent dit dat geen enkele partij gelooft in monolithische architecturen die worden gedomineerd door één soort processor. In plaats daarvan stijgen heterogene platformen, waarin elke fase gebruikmaakt van het meest geschikte silicon, naar de voorgrond.

Deze boodschap ondersteunt ook Intel’s strategische repositionering. Het bedrijf is de afgelopen tijd wat uit het kielzog van NVIDIA geraakt, maar behoudt sterke posities in datacentercpu’s en infrastructuurcomponenten. Door samen te werken met Google en de combinatie Xeon + IPU te blijven promoten, herinnert Intel de markt eraan dat er nog belangrijke segments zijn waar de CPU’s van Intel het verschil maken, naast de accelerators.

Voor Google versterkt deze samenwerking haar modulaire infrastructuurstrategie. Het bedrijf gebruikt al eigen TPU’s, systemen zoals Titanium, en hypergeconfigureerde CPU’s zoals Axion. Die strategie wordt nu verder uitgebreid met de samenwerking met Intel voor Xeon en IPU. Zo krijgt Google meer flexibiliteit om verschillende lagen van haar cloudstack te optimaliseren en onafhankelijk te blijven van een uitsluitend technologische vendor.

Veel toekomstplannen, maar nog geen concrete cijfers

Zoals bij veel infrastructuurprojecten blijft ook hier ruimte voor interpretatie. Details over hoeveel generaties Xeon dit partnership omvat, prestatie- of kostenvoordelen, en precies welke nieuwe IPU’s op komst zijn, ontbreken nog. Het belangrijkste is dat beide partijen een duidelijke koers uitzetten: gezamenlijk bouwen aan een infrastructuur waarin CPU’s en IPU’s niet secundair zijn, maar juist actief bijdragen aan efficiëntere en uitgebalanceerdere AI-systemen.

Voor techmedia is dat de essentie. De reling is veel meer dan een zakelijke update; het bevestigt een bredere trend: in de nieuwe AI-fase is het niet enkel de vraag welke accelerator het leiderschap heeft, maar hoe je een compleet systeem ontwerpt dat data kan verplaatsen, processen kan coördineren, inferentie kan uitvoeren met redelijke kosten, en compatibel blijft met het data center software-ecosysteem. Intel en Google willen die protagonisten zijn. En dit partnerschap laat zien dat die strijd nog maar net begonnen is.

bron: newsroom.intel

Scroll naar boven