Samsung versnelt met HBM4 voor NVIDIA Rubin en heropent de wereldwijde strijd om AI-geheugen

De komende grote sprong in Kunstmatige Intelligentie wordt niet meer uitsluitend bepaald door de kracht van GPU’s, maar door de geheugen dat ze aandrijft. In het bijzonder gaat het om de HBM (High Bandwidth Memory), een component dat uitgegroeid is tot een industriële bottleneck en een onderscheidende factor voor het trainen en inferentie van steeds grotere modellen. Op dit veld streeft Samsung ernaar om opnieuw een prominente rol te spelen met HBM4, een generatie die belooft meer bandbreedte te bieden en volgens recente informatie al belangrijke validatiefases met topklanten heeft doorlopen.

Coreaanse bronnen melden dat Samsung de laatste kwaliteitscontrolefases voor HBM4 met NVIDIA en AMD voltooid zou hebben, met als doel binnen korte termijn te beginnen met productie en haar modules te positioneren binnen het ecosysteem van NVIDIA’s komende AI-platform, bekend als Vera Rubin. Tegelijkertijd wijst alle informatie op een eerste publieke presentatie in GTC 2026, het grote tech-evenement van NVIDIA, waar Rubin een centrale rol zou moeten spelen.

Waarom HBM4 belangrijker is dan ooit

De relevantie van HBM4 wordt duidelijk uit een simpel idee: in AI-versnellers hangt de prestatie niet enkel af van rekenkracht, maar vooral van hoeveel data er snel in en uit het geheugen kunnen stromen. HBM is precies ontworpen voor dat doel: het bieden van een extreme bandbreedte dankzij de fysieke nabijheid tot de processor en een zeer brede interface.

Bovendien brengt HBM4 een aanzienlijke technische evolutie: de industriestandaard omvat nu een interface van 2.048 bits. Deze sprong maakt het mogelijk om, mits de klokfrequentie per pin en de energie-efficiëntie hand in hand gaan, het dataverkeer te verdubbelen ten opzichte van vorige generaties. Deze combinatie — een bredere interface en hogere snelheden — verhoogt de competitieve spanning tussen Samsung, SK hynix en Micron.

De gegevens waar de industrie op jaagt: de standaard overtreffen en voldoen aan NVIDIA’s eisen

Een van de meest kritische punten in deze generatie is de snelheid per pin, gemeten in gigabits per seconde (Gbps). De referentiewaarde voor de JEDEC-standaard voor HBM4 wordt omschreven rond 8 Gbps per pin in de vroege fases, maar volgens diverse publicaties zou NVIDIA de leveranciers onder druk zetten om verder te gaan en streefcijfers van 10 Gbps of meer na te streven, om zo de verwachte prestatietoename in Rubin te ondersteunen.

Coreaanse media melden dat Samsung volgens geruchten een operationele snelheid van 11,7 Gbps in HBM4 zou kunnen bereiken, wat boven de minimale doelstellingen van de industrie ligt. Dit zou niet alleen een technische overwinning betekenen, maar ook dat Samsung zich in de positioneert als een leverancier die in staat is de verwachte massale vraag te bedienen — zeker in een markt waarin geheugen momenteel als “goud” wordt beschouwd voor AI-acceleratoren.

Planning: van de eerste units tot de spertijd in de levering

Volgens publicaties uit Korea zou de planning als volgt verlopen:

  • Korte-termijnproductie (na afronding van de laatste tests met klanten).
  • Integratie voor demonstraties tijdens GTC 2026 (maart).
  • Uitbreiding van de levering rond juni, afhankelijk van de productieplanning van de eindchips en het tempo van de assemblage door integrators.

Belangrijk om te benadrukken: bij HBM gaat het niet alleen om het snel maken van een module. Het moet in grote volumes geproduceerd kunnen worden, met voldoende wafer- en stack-rendement, en de volledige keten van assemblage en validatie moet goed afgestemd worden met de klant. De industrie heeft de afgelopen twee jaar geleerd dat bandbreedte niet veel waard is als het te laat komt.

De “base die” factor: wanneer geheugen ook afhankelijk wordt van logica

Een andere ontwikkeling die aan gewicht wint bij HBM4 is de zogenaamde logic base die (de logische laag onder de stack). In deze generatie wordt deze laag crucialer voor datamovement, efficiëntie en integratie. Sommige marktbronnen melden dat Samsung een base die in 4 nm wordt gemaakt binnen haar eigen foundry gebruikt, wat haar meer controle geeft over timing en capaciteit, in tegenstelling tot rivalen die wellicht afhankelijk zijn van derden voor dit onderdeel.

Samengevat: de strijd om HBM4 is niet meer alleen “geheugen tegen geheugen”. Het wordt ook een strijd op het gebied van geavanceerde packaging, industriële prestaties en capaciteitsplanning. In een wereld waar dezelfde apparatuur en fabricagesektoren strijden om AI, consumentenelektronica en automotive te bedienen.

De concurrentie: SK hynix en Micron zetten ook door

De vooruitgang die aan Samsung wordt toegeschreven, gebeurt niet in isolatie. SK hynix heeft de afgelopen maanden belangrijke vorderingen aangekondigd in HBM4, waaronder snelheden boven de standaard en voorbereidingen voor grootschalige productie. Evenzo heeft Micron meldingen gedaan over prototypes met snelheden boven de 11 Gbps per pin en opvallende totale bandbreedtecijfers, wat wijst op een hechte concurrentiestrijd waarin geen duidelijke marktleider zich nu al aandient.

Voor NVIDIA is die rivaliteit strategisch: meer leveranciers die op tijd en in volume kunnen leveren, betekent minder risico op tekorten en meer flexibiliteit voor het aanpassen van configuraties per product, markt en prijs. Voor Samsung ligt de uitdaging dubbel: bewijzen dat haar technische prestaties zich vertalen in duurzame leveringen en opnieuw terrein winnen na een periode waarin concurrenten in eerdere fases van HBM voordeel hadden.

Wat er op het spel staat

Op korte termijn draait alles om Rubin, GTC en dubbele cijfers in Gbps-per-pin. Maar de onderliggende strijd gaat verder: wie controleert de materiële infrastructuur van AI? Het geheugen van het type HBM bepaalt het ontwerp van acceleratoren, hun marges, beschikbaarheid, en uiteindelijk de snelheid waarmee grootschalige datacenters voor training en inferentie worden uitgerold.

Als Samsung HBM4 als een concurrerend aanbod voor Rubin kan positioneren, wint het meer dan alleen een contract: het verwerft een invloedssfeer in de meest bepalende technologische cyclus van de halfgeleiderindustrie in deze periode.


Veelgestelde vragen

Wat is HBM4 en waarom is het zo belangrijk voor AI-GPU’s?
HBM4 is een nieuwe generatie high-bandwidth geheugen, ontworpen om AI-versnellers te voeden met meer data per seconde. Bij training en inferentie kan de geheugencapaciteit net zo kritisch zijn als de rekenkracht.

Wat betekent “11,7 Gbps per pin” in HBM4?
Het geeft de overdrachtssnelheid per datalijn aan. Hoe hoger de Gbps per pin (en met een brede interface), des te groter de totale bandbreedte voor de GPU of versneller.

Waarom wordt er gesproken over validatie en “verificatiefases” met NVIDIA en AMD?
Omdat het niet genoeg is om geheugen te fabriceren; het moet ook compatibiliteit, stabiliteit en prestatie testen doorstaan, naast het voldoen aan warmte- en betrouwbaarheidseisen in datacenter-omgevingen.

Wanneer zal HBM4 zijn impact laten zien in de markt voor versnellers en datacenters?
Als de productie- en leveringsschema’s gehaald worden, zou 2026 het jaar zijn waarin HBM4 in nieuwe AI-platforms verschijnt, met directe gevolgen voor hardwarebeschikbaarheid, leveringsschema’s en serverconfiguraties.

Bronnen: biz.sbs.co.kr en wccftech

Scroll naar boven