Jarenlang lag de discussie over AI-prestaties vooral op rekenkracht: meer GPUs, meer cores, meer FLOPs. Maar naarmate modellen groter worden en architecturen meer parallel werken, verschuift de knelpuntfase naar een minder ‘sexy’ maar wel bepalender factor: het geheugen. In het bijzonder wordt toegang tot high-bandwidth en lage-latentie geheugen de bepalende factor voor de prestaties van een cluster… en voor de kosten ervan.
In dat kader verschijnt ZAM (Z-Angle Memory), een gestapeld geheugensysteem dat Intel samen met SAIMEMORY ontwikkelt, een dochterbedrijf verbonden aan SoftBank, met een duidelijke ambitie: een alternatief bieden voor HBM (High Bandwidth Memory), dat vandaag de dag de facto standaard is voor GPU’s en versnellers in grootschalige AI-belastingen.
Waarom HBM de ‘knelpunt’ is geworden in AI
HBM is niet zomaar ‘meer RAM’. Het is gestapeld DRAM-geheugen, verticaal geassembleerd en verbonden via geavanceerde packagingtechnologieën (2.5D/3D), ontworpen om enorme bandbreedte te leveren met een verbeterde energie-efficiëntie ten opzichte van alternatieven. Het resultaat is duidelijk: voor intensieve training en inferentie kan het verplaatsen van gegevens van geheugen naar rekeneenheden net zo belangrijk zijn als het eigen chipproces.
Het probleem is dat deze voordeel gepaard gaat met industrieel hoge kosten: grootschalige productie van HBM vereist geavanceerde fabricagetechnieken, complexe verpakking en geconcentreerde productiecapaciteit. Bovendien wordt de HBM-markt gedomineerd door een heel klein aantal leveranciers, wat invloed heeft op prijzen, beschikbaarheid en onderhandelingsmacht.
Met de groeiende vraag vanuit AI neemt de druk op de HBM-leveringsketen toe: het bepaalt de implementatietiming, de kapitaaluitgaven voor datacenters en in feite wie kan opschalen en wie niet.
Wat is ZAM en waarom denken Intel en SoftBank dat het de koers kan veranderen
De aangekondigde partnership positioneert Intel als technologische en innovatiesponsor, terwijl SAIMEMORY de ontwikkeling en commercialisering leidt. Volgens de geplande planning start het werk in het eerste kwartaal van 2026, met prototypes gepland voor 2027 en een grootschalige uitrol richting 2030.
De naam “ZAM” is geen toeval: het verwijst naar de Z-as, dus een strategie van verticale stapeling die gericht is op het verhogen van dichtheid en prestaties ‘door meerdere lagen’ in plaats van het vergroten van oppervlak. In dezelfde reports wordt vermeld dat SoftBank ongeveer 3 miljard yen wil investeren tot het einde van de prototypefase (fiscaal jaar 2027).
De technische belofte van ZAM is ambitieus voor een volwassen markt: het zou geheugens kunnen bieden met 2-3x de capaciteit van HBM, terwijl het energieverbruik ‘tot de helft’ wordt teruggebracht en de kosten vergelijkbaar of lager zijn. Volgens sectorberichten is het doel om het energieverbruik met 40-50% te verminderen en de fabricagekosten te verlagen tot circa 60% van die van HBM.
Als die cijfers gerealiseerd worden in de productie, zou dat directe impact hebben: meer geheugen per accelerator, minder watt per gigabyte en mogelijk minder afhankelijkheid van een gecentraliseerde aanbodmarkt.
Wat maakt het onderscheid? Niet alleen het geheugen, maar ook de packaging
De sprong van HBM wordt niet alleen verklaard door de ‘welke soort geheugen’, maar vooral door hoe het wordt geïntegreerd. Intel wil hier een rol spelen die ze goed kennen: geavanceerd packaging. Volgens informatie van TrendForce wordt EMIB (Embedded Multi-die Interconnect Bridge) genoemd als onderdeel van de strategie om efficiënte interconnects in gestapelde architecturen te optimaliseren.
Met andere woorden: het debat gaat niet alleen over DRAM versus DRAM, maar over volledige gestapelde architecturen, interconnecties en grootschalige fabricageprocessen.
Bovendien vormt Intel’s recente werk in geheugentechnologie en packaging goede antecedenten: projecten met Sandia National Laboratories en de zogenaamde Next-Generation DRAM Bonding (NGDB) dienen als technologische basis voor nieuwe stapelmethoden die de capaciteit kunnen verhogen en de ontwikkeling van ‘high performance’ geheugen mogelijk maken op grotere schaal.
Een echte vervanger voor HBM… of een niche-aanvulling?
De vraag die velen zullen stellen (en waar sommige headlines al op anticiperen) is of ZAM HBM kan ‘vervangen’. Op korte termijn wijst de planning vooral op voorzichtigheid: prototypes in 2027 en grootschalige uitrol rond 2030, in het beste geval.
Dat plaatst ZAM meer als een strategische investering voor de tweede helft van de decennium dan als een directe oplossing voor de huidige HBM-verzadiging.
Toch kan ZAM, zelfs als aanvulling, relevant zijn voor specifieke scenario’s:
- Kleine en middelgrote AI-servers, waar de totale kosten (geheugen + energie + koeling) het meest bepalend zijn en de ‘premium HBM’ moeilijk te rechtvaardigen is.
- Edge computing en gedistribueerde implementaties, waar temperatuur- en energie-efficiëntie cruciaal zijn en een efficiënter gestapeld geheugen de doorslag kan geven.
De sleutel ligt in het aantonen van niet alleen bandbreedte en dichtheid, maar ook betrouwbaarheid op grote schaal, fabricageyields, compatibiliteit met supply chains en vooral naadloze integratie met accelerators en platforms.
Industrie-inzichten: geheugen als strategisch concurrentie-instrument binnen AI-ecosysteem
De beweging van Intel en SoftBank is interessant vanwege wat het betekent voor de bredere markt: het bevestigt dat de ‘AI-oorlog’ niet alleen wordt gewonnen met chipontwerp, maar ook door controle over de volledige driehoek van computing + geheugen + energie. Voor hyperscalers en colocatiemarkten is dit meer dan een technologische curiositeit: het is een directe invloed op de conversie- en winstcijfers.
Wanneer de markt onder druk staat door de kapabiliteit van HBM, kan elke geloofwaardige alternatieve technologie — zelfs als die pas in 2029-2030 gereed is — al invloed uitoefenen: het drukt op leveranciers, moedigt investeringen aan en stimuleert strategische diversificatie in geheugentechnologieën. Maar geloofwaardigheid wordt hier vooral opgebouwd uit voorspellende prototypes, duidelijk ontwikkelde fabricageroutes en partners die kunnen opschalen.
Veelgestelde vragen
Welke uitdaging wil ZAM oplossen ten opzichte van HBM in AI-datacenters?
Het vergroten van geheugencapaciteit en energie-efficiëntie van gestapeld geheugen, met als doel de prestatiekosten te verlagen en de afhankelijkheid van een geconcentreerde HBM-markt te verminderen.
Wanneer zou Z-Angle Memory (ZAM) beschikbaar kunnen zijn voor productie?
Volgens openbare informatie worden prototypes verwacht in 2027, met een grootschalige uitrol rond 2030.
Vervangt ZAM HBM in GPUs en AI-accelerators?
In de huidige verwachtingen lijkt een situatie van coexistentie het meest realistisch, waarbij ZAM een aanvulling of gedeeltelijke vervanging kan zijn afhankelijk van prestaties, betrouwbaarheid, kosten en gemak van integratie.
Welke rol spelen technologieën zoals EMIB in deze nieuwe gestapelde geheugensystemen?
Packaging en interconnect technologieën zoals EMIB zijn cruciaal: ze worden ingezet om efficiënte koppelingen tussen gestapelde chips te realiseren, wat essentieel is om te kunnen concurreren met HBM-architecturen.
