Nieuwe generatie HBM-geheugen maakt zich klaar voor de markt
De volgende generatie High Bandwidth Memory (HBM4) staat op het punt de markt te veroveren met concurrerende prestaties… en aanzienlijk hogere prijzen. Volgens een rapport van het analysebedrijf TrendForce zal HBM4 minstens 30% duurder zijn dan de huidige HBM3E, die op zijn beurt al 20% duurder was dan zijn voorganger.
Prijsstijgingen door technische complexiteit
Deze prijsstijgingen zijn te wijten aan de technische complexiteit van de nieuwe architectuur. HBM4 verdubbelt het aantal in- en uitgangen in vergelijking met HBM3E, van 1.024 naar 2.048, wat resulteert in grotere, kostbaardere en complexere chipontwerpen. Daar staat echter een maximale bandbreedte van maar liefst 2.048 GB/s per stack tegenover, bij 8 Gbit/s per pin, volgens de recent goedgekeurde specificaties van het JEDEC-consortium.
Technische voordelen en nieuwe ontwerpen
Samsung en SK Hynix werken samen met externe fabricagebedrijven aan een nieuw ontwerp, de zogenaamde logic-based base die, dat een betere integratie van geheugen met de processor mogelijk maakt. Deze vooruitgang is erop gericht de latentie te verminderen, de efficiëntie van dataroutes te verhogen en een stabielere overdracht bij hoge snelheden te waarborgen. Ter vergelijking: de base dies van HBM3E waren in wezen signaalkanalen zonder logische functies.
De herontwerpen zijn bedoeld om te voldoen aan de stijgende vraag naar geheugensolutions voor AI-accelerators en supercomputing, waar elke nanoseconde en watt telt. De verbetering in logische integratie belooft sneller, efficiënter en betrouwbaarder geheugen voor de komende high-end processoren.
Stijgende markt: verwachte omzet van 3,75 exabyte in 2026
De vraag naar HBM-geheugen vertoont geen tekenen van afname. TrendForce schat dat de totale verkoop van HBM — inclusief alle generaties — in 2026 meer dan 30.000 miljard gigabit zal overschrijden, wat overeenkomt met 3,75 miljoen terabytes (3,75 exabyte). Volgens de prognoses zal HBM4 in de tweede helft van volgend jaar HBM3E als belangrijkste oplossing verdringen.
De Zuid-Koreaanse fabrikant SK Hynix blijft dominante marktleider met meer dan 50% marktaandeel, terwijl Micron en Samsung hun productieplannen moeten versnellen om niet achterop te raken in de race naar HBM4.
Voorbereidingen voor de volgende generatie accelerators
De belangrijkste spelers op de chipmarkt bereiden hun producten al voor op deze nieuwe technologie. Nvidia heeft aangekondigd dat hun toekomstige GPU’s van de Rubin-generatie, die voor 2026 zijn gepland, HBM4-geheugen zullen bevatten. AMD zal deze lijn volgen met de aankomende Instinct MI400-serie accelerators.
SK Hynix is ondertussen al begonnen met het verzenden van monsters van zijn eerste HBM4-chips, geproduceerd in configuraties van 12 lagen. Hoewel de exacte cijfers over de bandbreedte en capaciteit nog niet bekend zijn, wordt verwacht dat ze de huidige limieten van HBM3E zullen overschrijden, die al tot 1.280 GB/s per stack bereiken.
Vergelijking van HBM-generaties (bandbreedte per stack)
| Generatie | Bandbreedte per pin | Bandbreedte per stack |
|---|---|---|
| HBM1 | 1,0 Gb/s | 128 GB/s |
| HBM2 | 2,0 Gb/s | 256 GB/s |
| HBM2E | 3,6 Gb/s | 461 GB/s |
| HBM3 | 6,4 Gb/s | 819 GB/s |
| HBM3E (Micron) | 9,2 Gb/s | 1.178 GB/s |
| HBM3E (Samsung) | 9,8 Gb/s | 1.254 GB/s |
| HBM3E (SK Hynix) | 10,0 Gb/s | 1.280 GB/s |
| HBM4 | 8,0 Gb/s | 2.048 GB/s |
| HBM4E (geschat) | ~10,0 Gb/s | ~2.560 GB/s |
Met de goedkeuring van de HBM4-standaard door JEDEC en de eerste monsters in omloop, bereidt de industrie zich voor op een nieuwe sprong in capaciteit, snelheid… en kosten. Een prijs die velen bereid zullen zijn te betalen, mits het leidt tot leiderschap in de veeleisende AI-markt.
