De race voor kunstmatige intelligentie wordt niet langer alleen gewonnen door het trainen van grote modellen. Inferentie — de fase waarin deze modellen antwoorden geven, redeneren, taken uitvoeren en AI-agenten aansturen — is uitgegroeid tot een nieuw strategisch strijdtoneel voor chipfabrikanten, foundries en geheugenleveranciers. Op dat speelveld probeert Samsung een zeldzameportuniteit aan te grijpen: opnieuw een sterke positie te verwerven in de toeleveringsketen van Nvidia.
De aanleiding is de LPU-technologie van Groq, gespecialiseerd in inferentie met lage latentie. Hoewel er in de sector gespeculeerd wordt over een geheime of strategische overname, heeft Groq officieel aangekondigd dat het een niet-exclusieve licentie verleent voor zijn inferentietechnologie aan Nvidia, vergezeld van de intreding van Jonathan Ross, oprichter van Groq, Sunny Madra en andere teamleden bij Nvidia. Volgens haar eigen verklaring blijft Groq opereren als een onafhankelijke onderneming, met Simon Edwards als CEO.
Samsung krijgt zichtbaarheid met Groq 3 en inferentie-AI
Het interessegebied van Samsung ligt niet alleen in het fabriceren van een specifieke chip. Het Zuid-Koreaanse bedrijf wil aantonen dat het relevant kan blijven voor Nvidia, los van de HBM-geheugentechnologie. Op GTC 2026 benadrukte Samsung haar rol als partner van Nvidia in geheugen, foundry en geavanceerd verpakkingswerk, en noemde Jensen Huang Samsung als belangrijke partner bij de fabricage van de nieuwe Groq LPU.
Deze zet is strategisch belangrijk omdat Nvidia jarenlang afhankelijk was van TSMC voor haar meest geavanceerde GPU’s. Dat een onderdeel dat gericht is op de toekomstige inferentieplatformen van Nvidia via Samsung Foundry wordt gefabriceerd, verstoort niet meteen de machtsbalans, maar opent wel een kloof in een relatie die lange tijd door TSMC werd gedomineerd.
Volgens sectorbronnen wordt Groq 3 geproduceerd door Samsung Foundry op een 4 nm-proces. In tegenstelling tot veel AI-GPU’s richt deze chip zich op inferentiebelasting en maakt gebruik van een SRAM-architectuur in plaats van grote stapels HBM-geheugen. Die technische nuance verklaart deels Nvidia’s interesse: GPU’s blijven essentieel voor training en algemene taken, maar generatieve AI-modellen en agenten vragen steeds meer om versnelders die lage latentie en hoge prestaties bieden tijdens uitvoering.
Paradoxaal genoeg probeert Samsung haar positie bij Nvidia te versterken door zowel haar rol in HBM-geheugen als met een LPU die niet, zoals GPU’s voor training, afhankelijk is van HBM. Haar bredere industriële strategie is het aanbieden van geïntegreerde oplossingen: geavanceerd geheugen, logische fabricage en pakkettechnologie voor AI-infrastructuur.
Samsung’s troef: HBM, foundry en verpakkingsoplossingen
Samsung weet dat hoogbandbreedtegeheugen een kritieke component wordt voor AI. Tijdens GTC 2026 presenteerde het bedrijf HBM4E en sprak over haar toekomstige architectuur HBM5. Daarnaast toonde het technologieën zoals Hybrid Copper Bonding, gericht op betere thermische beheersing in high-performance systemen.
Deze combinatie is cruciaal. Grote AI-systemen worden niet meer alleen gevormd door het beste chip, maar door de integratie van GPU’s, gespecialiseerde versnellers, geheugen, interconnectie, opslag, netwerken en koeling in steeds compactere platformen. In dat kader biedt Samsung een meer complete aanpak: niet enkel wafers of geheugen, maar een sterk geïntegreerde technologische keten.
Voor Nvidia zou het strategisch interessant zijn om naast TSMC een tweede partner voor de fabricage te hebben. TSMC blijft de dominante leverancier voor haar meest geavanceerde chips, maar de groei in AI-vraag heeft de capaciteit, geavanceerd verpakkingsproces en geheugentoegang onder druk gezet. Het diversifiëren van leveranciers kan helpen bij onderhandeling, risico’s beperken en de beschikbaarheid van producten versnellen.
Desalniettemin moet Samsung haar consistentie nog bewijzen. Een order voor Groq 3 betekent niet meteen dat ze TSMC zal verdrijven in volumegedachte en waarde. Het vertrouwen in geavanceerde processen, rendement per wafer, energie-efficiëntie, verpakkingskwaliteit en levertijd blijft doorslaggevend. TSMC behoudt op dat vlak een sterke positie.
TSMC onderneemt actie
De kern van de strijd is eenvoudig: Samsung wil de Groq LPU inzetten als toegangspoort tot meer business met Nvidia, terwijl TSMC haar centrale rol in de toeleveringsketen probeert te beschermen. DigiTimes meldt dat TSMC druk uitoefent om opvolgende generaties LPU’s te produceren, wat de mogelijkheid onderbouwt dat Samsung haar eerste voorsprong niet op lange termijn kan garanderen.
De interesse van TSMC is logisch. Mocht inferentie en AI-agentage toenemen zoals grote cloudproviders verwachten, dan kunnen LPU’s en andere gespecialiseerde versnellers een belangrijke nieuwe categorie worden binnen datacenters. Ze vervangen GPU’s niet, maar vullen hun rol aan, vooral waar lage latentie, kosten per token en energieverbruik cruciaal zijn.
Voor Nvidia betekent de integratie van Groq-technologie zowel defensieve als offensieve strategie: defensief, omdat het haar marktaandeel beschermt tegen gespecialiseerde concurrenten; offensief, omdat het platform verder uitbreidt dan traditionele GPU’s en inspeelt op een markt die niet alleen trainen, maar ook inference, real-time autonome systemen en geautomatiseerde workflows omvat.
Dit alles kan leiden tot een meer heterogene architectuur: datacenters met GPU’s, CPU’s, DPU’s, inferentieversnellers, HBM, ingebouwde SRAM en ultralaag-latentie-netwerken. Succes wordt niet enkel behaald met de krachtigste chip, maar met de meest complementaire platformintegratie.
Een bredere industriële strijd
De strijd tussen Samsung en TSMC om Nvidia’s LPU’s weerspiegelt een bredere trend. AI hervormt de halfgeleiderindustrie, met drie knelpunten: geavanceerde productiecapaciteit, hoogwaardig geheugen en verpakkingsinnovatie. Wie deze kritieke onderdelen controleert, krijgt een strategisch voordeel voor de komende jaren aan digitale infrastructuur.
Samsung probeert haar betrouwbaarheid in geavanceerde foundry te herstellen en haar sterke positie in geheugen te benutten. TSMC wil voorkomen dat haar strategische klanten teveel naar concurrenten overstappen. Nvidia speelt hierin een machtige rol: zij kan haar productie verdelen, externe technologieën integreren en haar volume als onderhandelingsinstrument inzetten.
Voorzichtigheid is geboden: de beschikbare gegevens wijzen op een belangrijke samenwerking tussen Nvidia, Groq en Samsung, maar bevestigen niet dat Samsung TSMC volledig zal vervangen in de kern van Nvidia’s business. Voor nu is het vooral een open kans, geen definitieve verandering in leiderschap.
Wat wel duidelijk wordt: inferentie is de nieuwe strijdarena. Waar de afgelopen jaren vooral het trainen van grote modellen centraal stond, verschuift het businessmodel nu richting massale deployment van AI in praktische toepassingen. Snelheid, kosten, energie-efficiëntie en schaalbaarheid worden essentieel.
Samsung ziet kansen om weer een belangrijke rol te spelen. TSMC blijft haar marktaandeel verdedigen, en Nvidia, als belangrijke scheidsrechter in deze fase van AI-ontwikkeling, kan de grote winnaar worden door de concurrentie te stimuleren, te diversifiëren en haar eigen innovatie te versnellen.
Veelgestelde vragen
Wat is een LPU en waarom is Nvidia daarin geïnteresseerd?
Een LPU, of Language Processing Unit, is een versnellermodel die gespecialiseerd is in inferentie voor taalmodellen. Het draait om het snel genereren van antwoorden en verwerking van sequentiële data met lage latentie, essentieel voor chatbots, virtuele assistenten en AI-agenten.
Heeft Nvidia Groq overgenomen?
Officieel heeft Groq een niet-exclusieve licentie afgegeven voor haar inferentietechnologie aan Nvidia. Daarnaast maakte Groq bekend dat haar oprichter Jonathan Ross, voorzitter Sunny Madra en andere teamleden naar Nvidia overstappen. Groq blijft zelfstandig opereren.
Waarom is Samsung belangrijk voor Nvidia’s AI-chips?
Samsung wil haar rol versterken in HBM-geheugen, foundry-services en geavanceerd verpakkingswerk. Haar betrokkenheid bij de fabricage van Groq’s LPU voor Nvidia biedt een mogelijkheid om zich te profileren als alternatief of aanvulling op TSMC in delen van de supply chain.
Kan Samsung TSMC vervangen als belangrijkste fabricagepartner voor Nvidia?
Voorlopig niet. De kans voor Samsung ligt vooral op specifieke chips en haar capaciteit in geheugen, foundry en verpakkingen. TSMC blijft de belangrijkste leverancier voor Nvidia’s meest geavanceerde chips en high-volume GPU’s.
