De HBM4-oorlog stopt NVIDIA’s verwachtingen abrupt: Vera Rubin mikt op 20 TB/s in plaats van 22 TB/s

Het HBM-geheugen is uitgegroeid tot de duurste —en meest strategische— knelpunt in Kunstmatige Intelligentie. En in dat speelveld heeft elke snelheidsaanpassing bredere consequenties dan alleen een kopline. Volgens verschillende recent gepubliceerde bronnen van gespecialiseerde media, halen de NVIDIA Vera Rubin GPU’s niet de oorspronkelijke doelstelling van 22 TB/s geheugenbandbreedte met HBM4, en blijven ze steken op ongeveer 20 TB/s vanwege praktische beperkingen in de productie van HBM4 op de beoogde snelheden per pin.

Wat op het eerste gezicht lijkt op “slechts” een technische correctie, is in werkelijkheid een symptoom van een groter probleem: de industrie duwt HBM4 aan de grens nog voordat de node volledig volwassen is op schaal. En wanneer de limieten worden gezet door SK hynix en Samsung — de belangrijke leveranciers — past de rest van het ecosysteem zich aan.

Van het doel van 11 Gb/s per pin naar een meer realistische limiet

De veel herhaalde uitleg in deze publicaties is vrij concreet: NVIDIA zou hebben aangedrongen op HBM4-snelheden rond 11 Gb/s per pin, maar fabrikanten zouden de voorkeur geven aan een meer realistische waarde van rond de 10 Gb/s per pin om de fabricage-yield, het energieverbruik en de stabiliteit binnen haalbare parameters te houden voor massaproductie. Die terugslag per pin betekent dat, bij de enorme bus tussen de stacks, de totale bandbreedte wordt ingekort.

In HBM is dat “detail” enorm belangrijk, omdat de sprong van HBM3/3E naar HBM4 niet incrementeel is, maar structureel: het standaard gebruikt een interface van 2.048 bits per stack (het dubbele van eerdere generaties), en deze breedte vermenigvuldigt elke beperking per pin. Met andere woorden: als het hele systeem is ontworpen om te vergroten, daalt het ook bij verkleinen.

Waarom HBM4 zo moeilijk op te schalen is

De geheugenindustrie waarschuwt al maanden dat HBM4 een heel ander beest is. Een snelheidstoename per pin is niet “gratis”: het vereist meestal meer signaalintegriteit, krappe thermische marges en meer complexiteit bij grootschalige validatie. Daar komt nog bij dat het meest onaangename voor een CFO: als de rendementen op wafels dalen, stijgt de kostprijs exponentieel.

Het is geen toeval dat delen van de technische berichtgeving focussen op de kloof tussen wat het standaard toelaat en wat de markt verlangt. Aan de ene kant bepaalt het JEDEC-standaard de basis; aan de andere kant dringen grote kopers aan op hogere snelheden dan het “minimale levensvatbare niveau”, omdat AI alles opslokt. En tussen beiden staan de fabrikanten, die consistente volumes moeten leveren, niet alleen demo’s.

De sector zelf has ook signalen gegeven dat dit spanningsveld bestaat. In 2025 bijvoorbeeld, maakte SK hynix bekend dat HBM4 ontwikkelt met snelheden boven de oorspronkelijke standaardreferenties, wat aantoont dat de marge er is… maar het massaal produceren voor de meest belangrijke GPU van het jaar is een ander verhaal.

De concurrentie-inzichten: het voordeel ten opzichte van AMD wordt kleiner

Het gerucht over “20 TB/s in plaats van 22” komt niet alleen door marketing, maar ook door de competitieve context. AMD presenteert al geruime tijd uiterst ambitieuze cijfers voor haar volgende generatie accelerators met HBM4.

In openbare documenten stelt AMD dat haar Instinct MI450 Series een bandbreedte van 19,6 TB/s behaalt met 432 GB HBM4. Als Rubin op 20 TB/s blijft steken, wordt het verschil klein: de strijd wordt niet meer uitsluitend over geheugen gestreden, maar over architectuur, interconnectie, systeem-schaalbaarheid en vooral de beschikbaarheid en totale kosten van de rack.

Het is belangrijk te benadrukken dat geheugen niet alles is. In AI hangt de uiteindelijke prestatie ook af van software-efficiëntie, interne (en inter-nodale) connectiviteit, en van het gedrag van systemen op schaal onder reële belasting. Maar de geheugenbandbreedte blijft een belangrijke indicator, omdat het de “voeding” voor de rekeneenheden beïnvloedt: zonder data wachten de rekeneenheden.

Van Hopper tot Blackwell… en Rubin’s sprong blijft enorm

Dat Rubin niet op 22 TB/s uitkomt, betekent niet dat de sprong niet spectaculair is. Kijk naar de recente evolutie.

NVIDIA specificeert dat de H100 (Hopper) een 3,35 TB/s geheugenbandbreedte biedt. In de Blackwell-generatie beschrijft het bedrijf systemen met HBM3E die, per GPU, rond de 8 TB/s liggen. Zelfs als Rubin op ongeveer 20 TB/s uitkomt, is de sprong vanaf H100 nog steeds indrukwekkend; het verklaart waarom de industrie vastzit aan HBM.

Met andere woorden: de beperking is relevant in de competitieve strijd, maar verandert niets aan de feitelijke inzet: HBM4 is ontworpen om het plafond van AI-systemen in de tweede helft van deze eeuw te verleggen.

Een waarschuwing voor de industrie: capaciteit reserveren is één ding, specificaties halen een andere

Deze “aanpassingen” passen bij een bredere tendens: toptechnologie en kritische componenten worden jaren van tevoren onderhandeld, maar dat garandeert niet dat de meest ambitieuze specificaties snel kunnen worden geïndustrialiseerd.

In 2026 heeft AI de toeleveringsketen tot een strategisch wapen gemaakt. Geheugen HBM, door de fabricage-uitdagingen en de waarde, staat centraal. Als fabrikanten prioriteit geven aan yield en stabiliteit boven de laatste tiende in prestaties, past de rest zich aan. En als het uiteindelijke verschil tussen rivalen in tienden wordt gemeten, verschuift de echte voorsprong naar andere lagen: software, netwerken, verpakking, energie, logistiek en geïnstalleerde capaciteit.

Samenvattingstabel: hoe verhoudt de bandbreedte zich tot de gepubliceerde cijfers

PlatformGeheugenGeheugenbandbreedte
NVIDIA H100 (Hopper)HBM33,35 TB/s
NVIDIA Blackwell (B200 / HBM3E)HBM3E~8 TB/s
NVIDIA Vera Rubin (oorspronkelijk doel, gerapporteerd)HBM4~22 TB/s
NVIDIA Rubin (bijgestelde rapportage)HBM4~20 TB/s
AMD Instinct MI450 (officiële gegevens AMD)HBM419,6 TB/s

De praktische conclusie is eenvoudig: als de genoemde “bijstelling” wordt bevestigd, blijft Rubin een enorme sprong, maar de “titulatuurstrijd” met AMD op het gebied van geheugen wordt minder opvallend dan eerst werd gedacht. Dit betekent dat NVIDIA waarschijnlijk haar kracht zal moeten bewijzen in echt schaalbaar rendement, ecosysteem en snelle uitrol.


Veelgestelde vragen

Waarom is het belangrijk dat de bandbreedte van 22 TB/s wordt teruggebracht naar 20 TB/s in HBM4?
Omdat in AI de geheugenbandbreedte cruciaal is voor rekenkracht. Een beperking in doelstellingen wijst ook op fabricagebeperkingen en kan de kloof met concurrenten verkleinen.

Wat betekent “Gb/s per pin” en waarom is dat zo van invloed?
Het is de overdrachtssnelheid per datalijn van het geheugen. Bij HBM4, gecombineerd met zeer brede bussen, leiden kleine variaties per pin tot grote veranderingen in totale bandbreedte.

Heeft AMD echt 19,6 TB/s bandbreedte in HBM4?
AMD heeft cijfers gepubliceerd van 19,6 TB/s voor haar MI450-serie, met 432 GB HBM4. Dat geeft een referentieniveau, niet per se exact hetzelfde prestatieniveau als de GPU’s van NVIDIA, maar het duidt op het marktpotentieel.

Verliest NVIDIA de Rubin-generatie?
Niet noodzakelijk. Hoewel de bandbreedte mogelijk lager is dan oorspronkelijk gerapporteerd, blijft Rubin een grote sprong ten opzichte van eerdere generaties. De daadwerkelijke impact wordt bepaald door architectuur, interconnecties, software en systeemprestatie op schaal.

via: MyDrivers

Scroll naar boven