Samsung Versnelt Met HBM4E Voor AI-GPU’s: Doelstelling van 3,25 TB/s in 2027 en Strategische Wending Voor Herstel van Leiderschap

De Strijd om Geheugen: Samsung’s HBM4E met 3,25 TB/s Tegen 2027

De race om de hoogste bandbreedte geheugen (HBM) heeft een nieuwe fase ingeluid. Samsung Electronics heeft aangekondigd dat het doel voor de HBM4E generaties is vastgesteld op 3,25 TB/s, met massa-productie gepland voor 2027. Dit werd bekendgemaakt tijdens de OCP Global Summit 2025 in San José, waar de onderneming de lat hoog legt met een snelheid van minimaal 13 Gbps per pin en 2.048 I/O-pinen, wat 2,5 keer sneller is dan de huidige HBM3E.

Na een jaar waarin SK hynix de leiding nam met de HBM3E en zich positioneerde als de eerste die HBM4 in massa wil leveren, lijkt Samsung vastbesloten om zijn positie aan de top van de HBM-markt terug te winnen. Als de leidende leverancier van geheugentechnologie wil Samsung de beste GPU’s voor kunstmatige intelligentie aandrijven en de concurrentie voorblijven door snelheid en efficiëntie.

Van HBM4 naar HBM4E: Het Pad tot Hier

In januari 2025, tijdens de ISSCC in San Francisco, stelde Samsung in het vooruitzicht dat de HBM4 een doelstelling van 10 Gbps per pin zou hebben. Dit was een stijging van 25% ten opzichte van het oorspronkelijke doel van 8 Gbps, wat 2 TB/s zou opleveren. De grootste afnemer van HBM, NVIDIA, vroeg om meer voor de volgende generatie accelerators en Samsung reageerde door dit te verhogen naar 11 Gbps. Micron bevestigde later ook 11 Gbps samples aan een belangrijke klant, wat impliciet op NVIDIA wijst.

Met HBM4 nu boven de basis specificaties, werd verwacht dat HBM4E nog een stap verder zou gaan. Samsung heeft nu officieel bekendgemaakt dat er ≥ 13 Gbps per pin gehaald gaat worden, met een efficiëntieverbetering van meer dan het dubbele in vergelijking met de 3,9 pJ/bit van de huidige HBM3E. Dit maakt Samsung de eerste fabrikant die zo’n ambitieuze doelstelling voor de volgende generatie op papier zet.

Waarom Dit Belangrijk Is: AI, Bandbreedte en Totale Eigendoms kosten

De opkomst van generatieve AI en het trainen van grote taalmodellen (LLM) heeft het geheugensysteem blootgesteld aan een drukpunt, waarbij meer TB/s resulteert in minder wachttijd tussen GPU’s en data. Dit vertaalt zich in kortere latenties en verhoogde throughput per node. Als de energie per bit bovendien daalt, heeft dit directe gevolgen voor de Totale Eigendomskosten (TCO): meer prestaties per watt en lagere kosten per token op datacenter schaal.

Samsung mikt met HBM4E op een balans tussen snelheid, efficiëntie en tijdlijnen, met massaproductie gepland voor 2027, wat aansluit bij de roadmap voor de volgende generatie GPU’s.

De Concurrentiestrijd: SK hynix, Micron en de “Oorlog om Snelheid”

SK hynix heeft de referentiepositie ingenomen in HBM3E en mikt op HBM4. Samsung’s aankondiging is bedoeld om de pas in te zetten met HBM4E en 3,25 TB/s. Micron heeft ook zijn spierballen getoond met bevestigde samples van 11 Gbps in HBM4. Voor deze drie bedrijven zal het een uitdaging zijn om prestaties en capaciteit te behouden nu NVIDIA en andere grote spelers hun bestellingen verhogen.

Samsung’s Volledige Plaatje: HBM4E, LPDDR6 en 2 nm

Samsung heeft de OCP Global Summit 2025 gebruikt om zijn volledige strategie te schetsen:

  • HBM4E: ≥ 13 Gbps per pin, 2.048 pinnen, 3,25 TB/s met >2× verbetering in pJ/bit ten opzichte van HBM3E. Massaproductie in 2027.
  • LPDDR6: Eerste product met 10,7 Gbps per pin en 114,1 GB/s, 20% efficiënter dan LPDDR5X, gericht op mobiele SoC’s en apparaten.
  • Fabricage op 2 nm: Gereed en productie gepland tegen het einde van 2025, een samenwerking met Rebellions om hun Rebel Quad te integreren.

Het testimonial van de vooruitgang van Samsung in geheugen, mobiele DRAM en fabricagenodes wordt hiermee versterkt.

Wat Betekenen 3,25 TB/s?

3,25 TB/s is het resultaat van ≥ 13 Gbps per pin × 2.048 pinnen × (1 byte/8 bits). Het is niet alleen een rond getal; het vereist dat interfaces, stapelingen en interconnectietechnologieën deze hoge snelheid betrouwbaar kunnen verplaatsen en afvoeren. Dit omvat ook de noodzaak om controllers, signalering en kruisbespreking te heroverwegen in een steeds hogere 3D-stapeling.

De Toekomst: Wat Nu?

In de nabije toekomst kunnen we demonstrators en prototypes van HBM4 en HBM4E met publieke metrics verwachten, evenals duidelijke samenwerkingen met NVIDIA en AMD om zekerheden voor de perioden 2026–2028 te garanderen. De vraag is niet langer of er HBM4E zal zijn met 3 TB/s, maar wie er als eerste volume kan afleveren en hoeveel stapels er per GPU passen.

Met een groeiende vraag naar AI-technologieën, zal de strijd om HBM in de komende jaren steeds heviger worden, waarbij bedrijven zoals Samsung, SK hynix en Micron de koers moeten zetten om niet alleen voorop te blijven lopen, maar ook de toekomstige behoeften van de industrie te vervullen.

Scroll naar boven