Samsung Versnelt de Race om HBM3E Geheugen: Zoekt Goedkeuring van NVIDIA voor Mei

Samsung Electronics versnelt in de concurrerende markt voor high-performance geheugen (HBM)

Samsung Electronics zet een stevige stap vooruit in de competitieve wereld van high-performance geheugen (HBM). Volgens Zuid-Koreaanse media zoals EBN heeft het bedrijf zijn product, de HBM3E 12H met 36 GB, opnieuw ontworpen, met als doel om de goedkeuring van NVIDIA eerder te behalen dan gepland: in mei van dit jaar.

HBM3E 12H: Meer prestaties, meer capaciteit

De HBM3E 12H wordt gepresenteerd als het hoogste capaciteit HBM-geheugen op de markt, met een opbouw van 12 lagen die 36 GB bereikt en een bandbreedte tot 1.280 GB/s biedt. Dit betekent een sprongetje van meer dan 50% ten opzichte van de huidige HBM3 8H met acht lagen. Deze cijfers betekenen een belangrijke vooruitgang in termen van prestaties voor de nieuwste generatie AI-toepassingen, die verlangen naar hogere snelheid, capaciteit en energie-efficiëntie.

Een cruciaal aspect van deze vooruitgang is de integratie van TC NCF-technologie (thermisch gecomprimeerde niet-conductorfilm). Deze innovatie maakt het mogelijk om dezelfde fysieke hoogte te behouden als eerdere versies, ondanks het feit dat er meer lagen zijn toegevoegd. Dit vermindert de vervorming van de chips, verbetert de warmteafvoer en optimaliseert de prestaties.

De uitdaging: Goedkeuring van NVIDIA verkrijgen

Samsung heeft al monsters aan NVIDIA geleverd, maar deze voldeden niet aan de vereiste prestatieniveaus van het Amerikaanse bedrijf. Daarom is er een versnelde herontwerp gestart om te voldoen aan de strenge normen van de marktleider op het gebied van AI-versnellers. Als de goedkeuring in mei arriveert, zoals verwacht, opent dit de deur naar massaproductie in het eerste kwartaal van 2025, net op tijd om te concurreren met oplossingen van SK Hynix en Micron.

Het is belangrijk op te merken dat NVIDIA HBM-geheugen gebruikt in zijn GPU-lijn voor datacenters, waar elke verbetering in capaciteit en bandbreedte resulteert in een superieure prestatie bij het trainen van taalmodellen (LLMs), AI-verwerking en HPC-omgevingen.

Op weg naar het tijdperk van grootschalige kunstmatige intelligentie

Het gebruik van HBM-geheugen zoals de HBM3E 12H maakt een aanzienlijke schaalvergroting van de efficiëntie binnen datacenters mogelijk. Volgens interne schattingen van Samsung kan de AI-training snelheid met 34% toenemen, en kan het aantal gelijktijdige gebruikers van inferentiediensten met 11,5 vermenigvuldigen in vergelijking met systemen met HBM3 8H.

Dit heeft directe implicaties voor bedrijven die opereren op cloud- en AI-schaal. Een kleiner aantal chips met hogere capaciteit vermindert de totale eigendomskosten (TCO), verbetert het energieverbruik en maakt compactere en schaalbare architecturen mogelijk.

Parallel: Samsung ontwikkelt al HBM4

Naast het nastreven van goedkeuring van NVIDIA, werkt Samsung ook aan de volgende generatie: HBM4, met gebruik van hun nieuwe productieproces 1c. Aanvankelijk gepland voor eind 2024, is de ontwikkeling vertraagd en wordt verwacht klaar te zijn in juni 2025.

Het tweede kwartaal van dit jaar blijkt dus van cruciaal belang voor Samsung, dat ernaar streeft het leiderschap te heroveren in een markt die sterk vraagt om oplossingen voor generatieve AI en cloud computing.

Scroll naar boven