De volgende grote architectuur van NVIDIA voor datacenters, Feynman, begint al een les te geven voordat hij zelfs op de markt is verschenen: in het tijdperk van kunstmatige intelligentie is het niet genoeg om enkel het meest ambitieuze chipset te ontwerpen; er moet ook voldoende capaciteit zijn om het te fabriceren. De afgelopen uren is vanuit Azië hardnekkig gespeculeerd dat het gebrek aan capaciteit op de A16-node van TSMC NVIDIA dwingt om delen van het ontwerp van hun toekomstige GPU’s, gepland voor 2028, te herzien. Voorlopig is er geen officiële bevestiging van NVIDIA of TSMC over deze vermeende herontwerp, dus is het verstandig het te behandelen als wat het is: een ruchtbaarheidssituatie in de supply chain, relevant maar nog niet publiekelijk geverifieerd.
Wat wel bevestigd is, is de context die deze hypothese geloofwaardig maakt. TSMC presenteerde A16 als een proces dat specifiek gericht is op HPC en kunstmatige intelligentie, met nanosheet-transistors en technologie Super Power Rail, en benadrukt dat massaproductie begin half 2026 van start zal gaan. In vergelijking met N2P belooft TSMC voor A16 een snelheidsverbetering tussen 8 % en 10 % bij hetzelfde verbruik, een energie-efficëntieverbetering van tussen 15 % en 20 % bij gelijke prestaties, en een toename in dichtheid van 7 % tot 10 %. Op papier is dit precies het type node dat past bij een generatie als Feynman, dat NVIDIA officieel heeft vastgesteld op de routekaart voor 2028.
Het punt is dat alles op papier haalbaar lijkt, maar de productiecapaciteit niet. In januari erkende TSMC al tijdens haar kwartaalpresentatie dat de vraag naar geavanceerd silicium gekoppeld aan AI nog altijd zeer sterk was, dat grote klanten optimistische verwachtingen hadden, en dat zelfs klanten van hun klanten—vooral grote cloudaanbieders—demand naar capaciteit uitten. Die druk stelt niet alleen de A16-node op de proef, maar raakt meerdere nodes en klanten. Reuters meldde op 24 maart 2026 dat Broadcom eveneens kijkt naar capaciteitsbeperkingen bij TSMC, terwijl de Taiwanese foundry haar eigen productie limieten bereikt door de explosieve vraag naar chips voor AI.
Een plausibele geruchtenmolen, maar nog niet bevestigd
De bron van de geruchten dat er wijzigingen plaatsvinden in Feynman komt uit Aziatische supply chain rapporten en geluiden die aangeven dat NVIDIA oorspronkelijk deze familie had gepland op A16, maar dat het nu mogelijk is geworden om dat node te combineren met N3P voor minder kritische onderdelen. De interpretatie van deze bronnen is dat de meest gevoelige dieletjes of chiplets in A16 blijven, terwijl minder kritische delen verhuizen naar een meer volwassen en beschikbare node. De circulerende informatie is nog niet officieel bevestigd door de betrokken bedrijven, en dat nuanceverschil is heel belangrijk: in de halfgeleiderindustrie kan een verschil tussen “ontwerpdoel”, “technische test” en “final product” de hele interpretatie veranderen.
Desalniettemin is de hypothese niet onrealistisch. TSMC heeft expliciet aangegeven dat A16 geen algemene node is, maar een technologie die bedoeld is voor bepaalde zeer krachtige chips met complexe signalen en voedingen. Hoe specifieker en geavanceerder een node is, des te moeilijker het is om deze snel opschalen. Bovendien ziet de industrie al maanden dat AI niet alleen de geavanceerde wafers, maar ook de assemblage, HBM-geheugen, interposers, lasers en zelfs minder zichtbare supply chain segmenten onder grote druk zet. Als een grote speler als Broadcom al spreekt over beperkingen bij TSMC, is het niet ondenkbaar dat NVIDIA ook haar schema’s moet herzien, nodes moet mixen of interne blockdistributie moet aanpassen voor toekomstige evoluties.
Wat NFT vooral op het spel zet voor NVIDIA
Los van het gerucht, is het belangrijkste wat dit onthult over de markt. NVIDIA blijft de AI-infrastructuur domineren, maar zelfs dat garandeert geen onbegrensde toegang tot de meest geavanceerde productieprocessen van ’s werelds grootste fabrikant. Dat heeft verschillende implicaties. Ten eerste technisch: als Feynman uiteindelijk meerdere nodes combineert, moet NVIDIA de verdeling tussen logicablokken, geheugen en interconnecties verder optimaliseren om efficiëntie, prestaties of energieverbruik niet in gevaar te brengen. Ten tweede industrieel: de concurrentievoordeel in AI hangt niet langer alleen af van architectuur, software en ecosysteem, maar ook van het vermogen om de toeleveringsketen voor jaren veilig te stellen.
De derde implicatie is breder en heeft gevolgen voor de hele sector. Als TSMC haar A16 nauwlettend moet beheren voor topklanten, wordt de marges voor kleinere bedrijven nog beperkter. Dit versterkt een trend die al zichtbaar was: langetermijncontracten, agressievere planning en gedeeltelijke diversificatie waar mogelijk. Met andere woorden, de AI-era heeft niet alleen de vraag naar rekencapaciteit doen groeien, maar ook geavanceerde productiecapaciteit tot een schaars strategisch actief gemaakt.
Voorlopig is voorzichtigheid nog steeds geboden. NVIDIA heeft bevestigd dat Feynman deel uitmaakt van haar geplande line-up voor 2028, en dat TSMC ervan uitgaat dat A16 begin half 2026 op de markt komt. Wat er verder gebeurt—of Feynman volledig op A16 draait, een mix wordt van A16 en N3P, of dat het ontwerp wordt aangepast door capaciteitsproblemen—valt nog onder industrieel speculeren. Maar de onderliggende boodschap is al duidelijk: de komende AI-strijd wordt niet alleen gestreden in R&D-laboratoria, maar ook in de capaciteit om die ontwerpen op tijd en in voldoende volume te kunnen produceren.
