De Strijd om Geheugen: Nvidia’s HBM-Ondertocht en AMD’s Reactie
De race om high-bandwidth geheugen (HBM) wordt steeds intensiever. Nvidia, de reus op het gebied van grafische verwerking en kunstmatige intelligentie, dringt er bij zijn leveranciers op aan om verder te gaan dan de officiële standaard voor de volgende generatie HBM4. Volgens een rapport van TrendForce, geciteerd door Tom’s Hardware, vereist het bedrijf geheugenchips die snelheden van 10 Gbps per pin kunnen bereiken – een hogere snelheid dan de 8 Gbps die is vastgesteld door de normeringsorganisatie JEDEC. Het doel is duidelijk: de kracht van hun Vera Rubin-platform, dat voor 2026 is gepland, versterken en de opkomst van AMD’s volgende architectuur, de MI450 Helios, indammen.
Een Standaard die Niet Voldoende is voor Nvidia
HBM4, de vierde generatie van dit type geheugen, biedt een interface van 2.048 bits en een officiële snelheid van 8 Gbps per pin. Dit komt neer op een bandbreedte van bijna 2 TB/s per stack. Echter, Nvidia denkt dat deze snelheid niet genoeg is voor hun massale rekendoelstellingen. Bij een verhoging naar 10 Gbps zou de bandbreedte per stack stijgen tot 2,56 TB/s. Met zes stacks zou iedere GPU meer dan 15 TB/s brute bandbreedte kunnen bereiken.
Deze strategie is bepalend. De Rubin CPX, de geoptimaliseerde configuratie voor veeleisende inferentielasten, wordt gepromoot met een prestatie van 1,7 petabyte per seconde op een volledige NVL144 rack. Hoe hoger de snelheid van het geheugen, hoe minder compromissen er nodig zijn in andere delen van het systeem om zulke duizelingwekkende cijfers te behalen.
Technische Uitdagingen: Vermogen, Warmte en Betrouwbaarheid
De sprong van 8 Gbps naar 10 Gbps is niet zonder risico’s. Het verhogen van de invoer/uitvoer snelheid betekent een hoger energieverbruik, meer strikte synchronisatievereisten en meer druk op de geheugencontroller. Dit alles kan de productiekosten opdrijven en het valideren van grote partijen bemoeilijken.
Bronnen dicht bij het proces suggereren dat Nvidia ervoor zou kunnen kiezen om zijn Rubin-producten te segmenteren op basis van het type HBM-geheugen dat is geïnstalleerd. CPX-modellen zouden de snellere versies van 10 Gbps ontvangen, terwijl standaardconfiguraties zich zouden moeten tevredenstellen met de officiële 8 Gbps. Een strategie die kosten zou helpen beheersen en de productie levensvatbaar zou houden.
Samsung, SK hynix en Micron: Rivalen in de Leveringsketen
In deze race spelen geheugenzorgverleners een cruciale rol. Samsung toont zich bijzonder agressief in de overgang naar nieuwe productieknooppunten. Hun HBM4-chip maakt de overstap naar 4 nm FinFET-technologie, wat hogere frequenties en een lager dynamisch verbruik mogelijk maakt. Deze stap zou hen een voorsprong kunnen geven in de hogere marktsegmenten, hoewel SK hynix nog steeds de grootste volumeleverancier is.
Micron heeft inmiddels bevestigd dat ze HBM4-monsters met een interface van 2.048 bits en een bandbreedte van meer dan 2 TB/s hebben, maar heeft niet verduidelijkt of ze zich ook richten op de 10 Gbps die Nvidia nastreeft.
AMD’s Reactie: Capaciteit en Architectuur
Tegelijkertijd bereidt AMD zijn tegenaanval voor met de MI450 Helios-serie. Hoewel deze nog niet op de markt is, zijn er al enkele technische details bekent. Elke GPU zal tot 432 GB aan HBM4- geheugen ondersteunen, wat een voordeel in capaciteit biedt ten opzichte van Nvidia’s voorstellen.
Bovendien belooft de nieuwe CDNA 4-architectuur substantiële verbeteringen in kunstmatige intelligentie-berekeningen en efficiëntie, twee belangrijke aspecten om te concurreren met Rubin in de inferentie en training van grootschalige modellen. Met andere woorden, terwijl Nvidia zich richt op hogere snelheid, doet AMD dat met meer geheugen en een diepgaande herontwerp van zijn architectuur.
Rubin versus Helios: De Strijd van het Decennium
De confrontatie tussen Nvidia’s Rubin-platform en AMD’s Helios zou wel eens de richting kunnen bepalen van de volgende grote golf in hardware voor kunstmatige intelligentie. Het is niet alleen een strijd om bandbreedte of capaciteit, maar ook om evenwichtige oplossingen die voldoen aan de eisen van steeds groter en complexere modellen.
Nvidia, dat momenteel de leiding heeft in de markt voor AI-versnellers, weet dat het zich geen verlies kan veroorloven. Hun drang om HBM4 verder te tillen dan de limieten die door JEDEC zijn vastgesteld, weerspiegelt een duidelijke strategie: maximale snelheid om de voorsprong op inferentielasten en de schaalbaarheid van hun supercomputers te behouden.
Aan de andere kant kan AMD capaciteits- en architecturale efficiëntie transformeren in de krachtigste wapens. Met Helios streeft het niet alleen naar nabijheid tot Nvidia, maar probeert het ook klanten aan te trekken die waarde hechten aan extra geheugen om grotere datasets of modellen met biljoenen parameters te beheren.
Een Strijd met Geopolitieke en Technologische Implicaties
Buiten de rivaliteit tussen Nvidia en AMD hebben de evolutie van HBM4 en de adoptie van geavanceerdere productieprocessen door Samsung, SK hynix en Micron een geopolitieke ondertoon. High-bandwidth geheugen is een kritiek component geworden voor kunstmatige intelligentie, big data en militaire toepassingen.
De Verenigde Staten, Zuid-Korea en Taiwan concentreren de meeste van deze waardeketen, wat druk toevoegt in een context van stijgende spanningen met China en inspanningen om de strategische levering van halfgeleiders te waarborgen. Iedere technologische vooruitgang op dit vlak kan niet alleen de balans in datacenters, maar ook in de wereldeconomie en de concurrentie tussen blokken beïnvloeden.
Conclusie: Snelheid Tegenover Capaciteit
Het scenario dat zich voor 2026 aftekent, is er één van directe confrontatie. Nvidia mikt op extreme snelheid van HBM4 bij 10 Gbps als hun troef om de leiderspositie te behouden. AMD, met de MI450 Helios, vertrouwt erop meer geheugen en architectonische verbeteringen te bieden om de balans te herstellen.
De uitkomst zal afhangen van technische, economische en leveringsfactoren. De strijd om HBM4 zal niet alleen een kwestie van chips zijn, maar ook van strategie, betrouwbaarheid en toekomstvisie.
Het is duidelijk dat, ongeacht of de 10 Gbps wordt bereikt of niet, de komende generatie geheugens en GPU’s een ongekende sprong in de prestaties van kunstmatige intelligentie zal markeren, ons dichter bij een drempel waarbij de huidige supercomputers snel verouderd kunnen zijn.
Veelgestelde Vragen
Wat is HBM4-geheugen en hoe verschilt het van eerdere generaties?
HBM4 is de vierde generatie van high-bandwidth geheugen. Het heeft een interface van 2.048 bits en een bandbreedte die kan oplopen tot meer dan 2 TB/s per stack, wat een aanzienlijke verbetering is ten opzichte van HBM3 en HBM3E.
Waarom wil Nvidia HBM4-geheugen met 10 Gbps in plaats van de officiële 8 Gbps?
Met 10 Gbps per pin zou de bandbreedte per GPU meer dan 15 TB/s bedragen, wat zorgt voor beter rendement bij AI-werkbelastingen, vooral in inferentie en training van grote modellen.
Hoe is AMD van plan om met Nvidia in dit domein te concurreren?
AMD bereidt de MI450 Helios-serie voor met tot 432 GB aan HBM4-geheugen per GPU en architectonische verbeteringen in CDNA 4, waardoor ze proberen de snelheidsvoordelen van Nvidia met meer capaciteit en efficiëntie te compenseren.
Wat is de rol van Samsung, SK hynix en Micron in deze competitie?
Deze drie bedrijven zijn de belangrijkste leveranciers van HBM4. Samsung valt op door de agressieve overstap naar 4 nm, SK hynix is de marktleider in productievolume en Micron heeft monsters getoond met meer dan 2 TB/s bandbreedte.
