De komende GTC 2026 van Nvidia, gepland voor midden maart in San José (16–19 maart), brengt een frisse wind die anders is dan voorgaande edities. Het is niet alleen een expo voor versnelling en software: dit jaar dient de conferentie als een soort openbaarheidsoefening over drie vragen die al domineren in raad van bestuur en infrastructuurraden: Is er sprake van een AI-zeepbel? Wat komt er na Blackwell? En hoe lang kan de sector nog groeien voordat hij de energieboundaries bereikt?
Volgens diverse industriebronnen zal CEO Jensen Huang van plan zijn in de keynote te reageren op het gerucht over een mogelijke “zeepbel” en tegelijkertijd de boodschap van continuïteit versterken: het Vera Rubin-platform zou in een fase van grootschalige productie terechtkomen, en Nvidia probeert de markt te overtuigen dat de vraag niet alleen niet afneemt, maar van vorm verandert. Volgens de recente narratief van het bedrijf beweegt AI-vermogen zich richting een “industriële infrastructuur”, waarin energie-efficiëntie, netwerken en opslag bijna evenveel wegen als de chips zelf.
Een “mysteriechip” als haak… en als signaal
Het meest opvallende element rondom GTC 2026 is de zogenaamde “verrassingschip”. Het bedrijf heeft zelf geen technische details vrijgegeven, maar geruchten en gespecialiseerde berichtgeving wijzen erop dat Huang heeft beloofd “iets te tonen dat de wereld nog nooit heeft gezien”, wat de speculaties aanwakkert over een component die buiten het gebruikelijke roadmap-beeld valt (niet simpelweg een GPU-refresh of een incrementele CPU-aankondiging).
Wat belangrijk is, is niet het mysterie op zich, maar wat het aangeeft: Nvidia lijkt een nieuwe categorie te willen openen of in ieder geval de focus te leggen op een knelpunt dat al verdere implementatie beperkt. Sommigen suggereren dat het om een onderdeel gaat dat het geheugenprobleem — de grootste bottleneck bij huidige modellen — zou kunnen verlichten, of zelfs om een meer geïntegreerde aanpak die zowel rekenkracht als geheugen via geavanceerd packaging verbindt.
Een gangbare theorie onder Aziatische media is dat de “verrassingschip” gerelateerd zou kunnen zijn aan 3D IC-technologie, met gestapeld of meer nauw geïntegreerd geheugen, om elektrische afstand te verminderen en de effectieve bandbreedte te verhogen. Dit past bij de markt: de vraag naar HBM (High Bandwidth Memory) is inmiddels een bottleneck geworden, en het energieverbruik bij dataverplaatsing binnen systemen begint net zo relevant te worden als de kosten voor berekening.
Voorlopig houdt Nvidia het nog stil. Maar de impliciete boodschap is duidelijk: als GTC wordt gebruikt om een “out-of-the-box” chip te presenteren, zegt dat dat de volgende sprong niet slechts meer TFLOPS betekent, maar een andere systeemarchitectuur.
Siliciumfotonica: wanneer het netwerk de AI consumeert
Een ander belangrijk thema dat wordt verwacht op GTC 2026 is siliciumfotonica. Hoewel het concept niet nieuw is, komt de timing nu op het juiste moment: naarmate clusters groter groeien, wordt de onderlinge connectie niet langer enkel “bekabeld”, maar onderdeel van de prestatie-architectuur.
Dit betekent dat de kosten en het energieverbruik van netwerken (switching, transceivers, verbindingen) in de prioriteitenlijst omhoog schieten. Nvidia heeft al gesuggereerd dat haar strategie voor Rubin een ingrijpende verbetering van het netwerk-ecosysteem omvat, en recente communicatie benadrukt systemen met fotonische Ethernet-switching als middel om efficiëntie te verbeteren en de beschikbaarheid van “AI-fabrieken” te waarbomen.
Siliciumfotonica belooft licht binnen hardware te brengen om verliezen te verminderen, dichtheid te verhogen en transportkosten per bit te reduceren. In een wereld van AI-racks waar communicatie tussen knooppunten continu is, betekent elke verbetering in netwerk-efficiëntie een veelvoud aan besparingen bij duizenden verbindingen.
Als GTC 2026 zich sterk op dit onderwerp richt, bevestigt dat dat de toekomst van prestaties niet meer alleen in GPU’s ligt, maar in het geheel: GPU + geheugen + netwerk.
De echte limiet: elektrisch vermogen en implementatiecapaciteit
Het derde, en mogelijk meest ongemakkelijke, punt is de energiegrens. Nvidia beschouwt dat als een systeembreuk: het gaat niet alleen om chipproductie, maar ook om het bouwen of verzekeren van datacenters, benodigde capaciteit, onderstations, koeling en kapitaal om een groei mogelijk te maken die al op nationaal niveau wordt gepland.
De laatste dagen, sinds de kwartaalresultaten, wordt het debat explicieter: zelfs met sterke vraag, rijst de vraag of de sector kan blijven opschalen zonder fysiek of regelgevend barrières te treffen. Energie-uitbreiding verloopt traag, bouw van kritieke infrastructuur kost tijd, en de kapitaalmarkten kunnen strenger worden als er twijfel bestaat over de uiteindelijke winstgevendheid van AI.
Het message van Huang op GTC 2026 lijkt daarom niet alleen te zijn “er is geen zeepbel”, maar ook “dit is een lange termijn infrastructuur”. Als computing een industriële hulpbron wordt — vergelijkbaar met elektriciteit of transport — dan wordt de cyclus niet gemeten in modetrends, maar in decennia.
Rubin “in productie”… en de echte kalender
Tegelijk met de geruchten over de verrassingschip, probeert Nvidia haar volgende roadmap-stap te verstevigen: Vera Rubin. Het bedrijf presenteert Rubin als het platform dat Blackwell zal opvolgen, en benadrukt dat het ecosysteem (hardware en software) gericht is op het verminderen van kosten bij inferentie en het verhogen van prestatie-dichtheid.
Natuurlijk is het belangrijk te onderscheiden: in de markt bestaan twee realiteiten. Nvidia spreekt over productie en industriële gereedheid, maar de feitelijke beschikbaarheid in grote aantallen ligt vaak in de verwachting van tweede helft 2026, met initiële monsters en een geleidelijke opmars. In een sector waar “productie” zowel lopende fabricage betekent als het begin van grootschalige beschikbaarheid, biedt GTC gelegenheid om data, capaciteit en prioriteiten helder te krijgen.
Wat GTC 2026 kan bevestigen (en wat niet)
Voorafgaand aan de keynote heerst consensus dat Nvidia GTC 2026 zal gebruiken om drie kernpunten te versterken:
- AI is geen speculatief piek, maar een infrastructuurcyclus, ook al vordert de markt de testen over rentabiliteit.
- Rubin ontwikkelt zich, en Nvidia wil haar operationele credibiliteit laten zien rond leveringen en productie.
- De volgende sprong wordt systeembreukend, mogelijk met siliciumfotonica, nieuwe formaten, en misschien een chip die een belangrijke knelpunt aanpakt (geheugen, netwerk of inferentie op schaal).
In een tijd waarin de industrie zowel het teveel aan investeringen als het tekort aan energie vreest, positioneert GTC 2026 zich minder als een ontwikkelaarsconferentie en meer als een het koersbepalend signaal voor het volledige ecosysteem.
Veelgestelde vragen (FAQ)
Wanneer vindt Nvidia GTC 2026 plaats en waarom is het belangrijk voor AI-infrastructuur?
GTC 2026 wordt gehouden van 16 tot 19 maart 2026 in San José, en markeert doorgaans Nvidia’s roadmap voor chips, netwerken, software en platforms voor AI-datacenters.
Wat weten we over de “verrassingschip” die Nvidia mogelijk zal presenteren?
Details ontbreken, maar gespecialiseerde berichtgeving suggereert een component buiten het publieke roadmap-beeld. Speculaties richten zich op oplossingen voor knelpunten zoals geheugen, geavanceerd packaging (3D IC) of specifieke acceleratie voor inferentie.
Wat is siliciumfotonica en waarom wordt het genoemd bij AI-netwerken?
Het gebruik van geïntegreerde optische verbindingen in hardware om data efficiënter en met hogere dichtheid te verplaatsen. In steeds grotere AI-clusters wordt netwerken cruciaal voor prestatie en energieverbruik.
Waarom wordt de elektrische grens nu zo belangrijk voor AI?
Omdat het vergroten van AI-capaciteit vraagt om vermogen, koeling en datacenters. Het uitbreiden van energie-infrastructuur en vergunningen is traag; zonder voldoende capaciteit kan de groei gestagneerd worden ondanks de vraag naar chips.
