Meta heeft duidelijk haar strategie voor eigen chips voor Kunstmatige Intelligentie versneld, in samenwerking met Broadcom. De onderneming van Mark Zuckerberg kondigde op 14 april een uitbreiding aan van haar samenwerking met de Amerikaanse fabrikant om verschillende generaties van haar MTIA (Meta Training and Inference Accelerator) ontwikkelprojecten te co-creëren. Deze op maat gemaakte chips zijn bedoeld om prestaties, efficiëntie en controle over de infrastructuur die de AI-platforms ondersteunt te vergroten. De alliantie beperkt zich niet tot het ontwerp van het silicon; ook geavanceerde verpakkingstechnologie en netwerken worden aangepakt — twee kritieke onderdelen voor het opschalen van grote rekenclusters.
Deze stap onderstreept dat Meta niet langer uitsluitend afhankelijk wil zijn van NVIDIA GPU’s voor haar AI-ontwikkelingen. Het bedrijf hanteert al langer een hardwareportfolio-strategie, waarbij verschillende soorten acceleratoren worden ingezet afhankelijk van de workload. De MTIA’s richten zich vooral op inferentie en grootschalige ranking en aanbevelingssystemen, beide essentiële taken voor platforms als Facebook, Instagram, WhatsApp en Threads. In maart maakte Meta bekend dat het binnen twee jaar vier nieuwe generaties MTIA ontwikkelt en inzet, met als doel het gebruik uit te breiden van aanbevelingen naar generatieve taken.
De omvang van de overeenkomst geeft inzicht in waarom dit nieuws verder gaat dan een gewoon bedrijfsbericht. Meta spreekt van een initiële uitrol met meer dan 1 GW aan rekencapaciteit gebaseerd op haar eigen silicon als eerste fase van een routekaart die meerdere gigawatt omvat. Broadcom benadrukt dat de samenwerking de komende drie jaar wordt voortgezet en wordt ondersteund door haar XPU-platform, gericht op het op maat maken van AI-versnellers. In haar communicatie aan investeerders stelt Broadcom dat deze nieuwe fase wordt gekarakteriseerd door de inzet van de eerste 2 nm AI-rekenaccelerator binnen de relatie met Meta. Hoewel financiële details niet zijn vrijgegeven, is duidelijk dat het om een grootschalige en meerjarige investering gaat.
Meta streeft naar meer controle over haar AI-infrastructuur
Deze ontwikkeling past in een bredere trend onder grote cloud- en AI-ondernemingen: het zelf ontwikkelen van technologie om kosten te verlagen, prestaties te optimaliseren en minder afhankelijk te zijn van derden. Google investeert al jaren in TPU’s, AWS ontwikkelt Trainium en Inferentia, Microsoft introduceerde Maia, en nu wil Meta dat MTIA een centrale rol krijgt in haar architectuur. Het gaat niet alleen om kostenbesparing ten opzichte van NVIDIA GPU’s — dat speelt zeker een rol — maar ook om het ontwerpen van acceleratoren die beter aansluiten op specifieke workloads en een nauwere integratie met eigen netwerk en software mogelijk maken. Reuters noemt deze strategie een poging van Meta om de kosten van haar AI-uitbreiding onder controle te houden, terwijl de capaciteit verder wordt uitgebreid.
Broadcom brengt in deze context meer in huis dan uitsluitend productiecapaciteit: haar kracht ligt ook in netwerktechnologie en high-bandwidth interconnects, cruciaal wanneer AI-clusters enorm in omvang toenemen. Meta benadrukt dat de geavanceerde Ethernet-technologie van Broadcom zal helpen om de nieuwe clusters naadloos te verbinden. Met andere woorden: het akkoord draait niet alleen om chipontwikkeling, maar om het bouwen van de volledige basis waar Meta haar volgende AI-infrastructurereeks op wil baseren.
Hock Tan verlaat Meta’s Raad van Bestuur
Het aankondigingsbericht bevat ook een ongebruikelijke bestuurswijziging. Hock Tan, president en CEO van Broadcom, zal de Raad van Bestuur van Meta verlaten en een rol als adviseur voor de onderneming gaan vervullen op het gebied van het silicium-ontwikkeltraject en infrastructuurinvesteringen. Meta beschouwt deze overgang als een logische stap, gezien de schaal van de samenwerking en de technische invloed van Broadcom in deze nieuwe fase. Reuters meldde bovendien dat een andere raadgever, Tracey Travis, zich niet herkiesbaar stelt voor de volgende vergadering, al staat dat los van het strategische akkoord.
Wat vooral opvalt, is dat Meta zich lijkt te bewegen van een experimentele fase met eigen chips naar een veel ambitieuzere, massale uitrol. De eerste MTIA’s werden al in bepaalde workloads ingezet, maar het plan dat in maart werd aangekondigd en nu wordt versterkt met Broadcom, wijst op een veel agressievere versnelling. Bij succes leidt dit niet alleen tot efficiëntere aanbevelings- en inferentieprocessen, maar geeft het Meta ook meer autonomie binnen een kernonderdeel van haar AI-waardeketen. In een markt waar infrastructuur even belangrijk is geworden als de modellen zelf, kan dat echt een strategisch verschil maken tegenover andere grote spelers.
Wat betekent dit voor de markt?
De samenwerking verstuurt ook een krachtig signaal naar de rest van de AI-industrie. Ten eerste: de strijd om AI wordt niet alleen gewonnen met modellen en eindproducten, maar vooral met op maat gemaakte siliconen, gespecialiseerde netwerken en de capaciteit om dat alles op gigawatt-schaal uit te rollen. Ten tweede: Broadcom consolideert zich verder als belangrijke winnaar van de AI-golf, niet alleen dankzij haar connectiviteits- en switching-activiteiten, maar vooral door haar toenemende rol in geavanceerde acceleratoren voor grote cloud-klanten. Ten slotte: Meta wil in diezelfde liga spelen met een veel diepere verticale integratie dan voorheen. Hoewel concrete cijfers nog ontbreken over de mate waarin die aanpak de afhankelijkheid van NVIDIA zal verminderen, is de boodschap duidelijk: Meta streeft ernaar niet alleen groot te kopen, maar ook zelf te ontwerpen en te vervaardigen.
Veelgestelde vragen
Wat zijn de MTIA-chips van Meta?
Het zijn de eigen AI-versnellers van Meta, genaamd Meta Training and Inference Accelerator. Ze zijn ontworpen om AI-workloads efficiënter uit te voeren, vooral voor inferentie en grootschalige aanbevelingssystemen.
Welke rol speelt Broadcom in de samenwerking met Meta?
Broadcom helpt bij het ontwerp van chips, geavanceerde verpakkingstechnologie en high-bandwidth netwerken, ondersteund door haar XPU-platform, dat gericht is op het ontwikkelen van meerdere generaties MTIA.
Wil Meta minder afhankelijk worden van NVIDIA met dit akkoord?
Meta heeft niet aangekondigd volledig te stoppen met NVIDIA, maar het versterkt haar strategie voor eigen silicium om kosten en prestaties in specifieke AI-workloads te optimaliseren. Reuters ziet deze samenwerking als een stap om die afhankelijkheid te verminderen.
Wat betekent de eerste grootschalige inzet van meer dan 1 GW eigen chips?
Het betekent dat Meta een eerste fase lanceert met uitgebreide infrastructuur gebaseerd op haar eigen MTIA-chips, binnen een bredere routekaart van meerdere gigawatt ter ondersteuning van haar AI-doelstellingen.
via: about.fb
