“Samsung Behaalt NVIDIA-validatie voor 12-laags HBM3E en Richt Zich op HBM4: Het Nieuwe Gezicht van Geheugen voor de Volgende AI-golf”

Samsung Overwint Cruciale Kwalificatie Bij NVIDIA Met HBM3E

Samsung Electronics heeft eindelijk de kwalificatietests van NVIDIA voor haar HBM3E van 12 lagen (12-Hi) doorstaan. Dit belangrijke keerpunt komt na 18 maanden van ontwikkeling en meerdere mislukte pogingen om te voldoen aan de strenge prestatie- en betrouwbaarheidseisen van de wereldleider in AI-accelerators. De goedkeuring, bevestigd door industriële bronnen, betekent een terugkeer naar technologische geloofwaardigheid op een van de meest strategische gebieden van high-bandwidth memory, te midden van de race om de volgende generatie hardware voor kunstmatige intelligentie te voeden.

Wat Verandert Met De Validatie Van HBM3E 12-Hi

  • Technische Herstel: Marktonderzoekers wijzen op een beslissing van Samsung’s semiconductor hoofd, Jun Young-hyun, om het DRAM-core van HBM3E begin dit jaar te herontwerpen om thermische problemen in eerdere versies op te lossen. Bij stapelingen van 12-Hi zijn thermisch beheer en signaalintegriteit cruciaal: meer lagen betekent hogere dichtheid, meer vermogen per vierkante millimeter en meer risico op throttling of fouten als het ontwerp niet robuust is.

  • Dominante Klant: Hoewel AMD al HBM3E 12-stack van Samsung ontving voor hun MI350, ontbrak nog het “OK” van NVIDIA, de meest invloedrijke koper van geavanceerd geheugen voor AI-taken. De goedkeuring garandeert geen onmiddellijke hoge bestellingen, maar opent de deur naar toekomstige productcombinaties.

  • Visitekaartje Voor HBM4: In een markt waar SK hynix de laatste twee cycli HBM voor NVIDIA heeft geleid, verbetert elke vooruitgang die de engineeringscapaciteit onder het limiet (12-Hi, frequenties en betrouwbaarheid) aantoont, de onderhandelingspositie van Samsung voor de volgende generatie.

De Werkelijke Focus: HBM4 en NVIDIA’s “Vera Rubin” Architectuur

De industrie verschuift haar aandacht nu al naar HBM4, de zesde iteratie van high-bandwidth geheugen, die volgend jaar zal debuteren met de “Vera Rubin”-architectuur, de opvolger van NVIDIA’s Blackwell-chips.

Samsung probeert de afstand ten opzichte van SK hynix te verkleinen met een mix van proces en architectuur:

  • DRAM 1c (10 nm) voor geheugenchips in vergelijking met 1B bij sommige rivalen.
  • Logisch die op 4 nm gefabriceerd in hun foundry, tegenover 12 nm gebruikt door concurrenten.

NVIDIA zou haar leveranciers hebben gevraagd om meer dan 10 Gbps per pin te overschrijden met HBM4. Volgens bronnen uit de industrie heeft Samsung 11 Gbps aangetoond, wat voorloopt op de 10 Gbps van SK hynix.

De Huidige Positie van Elke Speler

  • SK hynix: Hoofdleverancier van HBM voor NVIDIA in de afgelopen cycli, met een voordeel in tijd in HBM3/3E en een solide roadmap naar HBM4.
  • Micron: Ook gekwalificeerd door NVIDIA in HBM3E 12-Hi; zij werken aan het voldoen aan de snelheidsdoelen voor HBM4.
  • Samsung: Gekwalificeerd voor HBM3E 12-Hi (NVIDIA) na levering van 12-stack aan AMD; voor HBM4 zet men in op geavanceerdere processen (1c DRAM + 4 nm logisch) en allianties, waaronder samenwerking met TSMC voor de co-ontwikkeling van HBM4.

Waarom De Sprong Van 8 Naar 12 Lagen (HBM3E) Belangrijk Is

Met HBM wordt het geheugen verticaal gestapeld met TSV en verbonden met de ASIC (GPU/AI-accelerator) via extreme bandbreedte over korte afstanden. Twee assen maken het verschil:

  1. Hoogte van de Stapeling:

    • Overgaan van 8-Hi naar 12-Hi verhoogt de capaciteit per stapel zonder het aantal stapels per GPU te vermenigvuldigen. Minder stapels met dezelfde capaciteit zorgt voor kortere routes, betere signalen, en potentieel hogere prestaties per watt.
  2. Snelheid Per Pin (Gbps):

    • Het verhogen van de snelheid van 8 Gbps (huidige standaard) naar 10-11 Gbps met HBM4 vermenigvuldigt de totale bandbreedte per stapel.

Conclusie

De validatie van HBM3E 12-Hi door NVIDIA brengt Samsung terug in de voorhoede van de voorziening van het meest kritische geheugen voor AI en bereidt de weg voor de echte strijd: HBM4. Als de onderneming haar procesvoordelen (1c + 4 nm) en de demonstratie van 11 Gbps weet om te zetten in vroege kwalificaties en solide rendementen, kan ze marktaandeel terugwinnen van SK hynix en zich vestigen als een sleutelleverancier in het Vera Rubin-tijdperk en daarna.

Voor de waardeketen van AI — van NVIDIA en AMD tot de grote cloudklanten — betekent meer concurrentie en meer prestaties in HBM snellere, dichte en efficiënte platformen. En dat is de echte prijs.

Scroll naar boven