SOCAMM opent de weg als “tweede geheugen” voor IA-servers, en dreigt de LPDDR-markt te belasten

Jarenlang domineerde de discussie over geheugen in AI-datacenters bijna altijd door dezelfde afkorting: HBM. Het is logisch: de bandbreedte van High Bandwidth Memory is uitgegroeid tot een fundamenteel onderdeel voor het trainen en uitvoeren van steeds grotere modellen. Maar parallel hieraan, en bijna onopgemerkt, groeit een ander front dat naar iets anders wijst: meer modulariteit, hogere dichtheid en minder afhankelijkheid van permanente “gesoldeerde” ontwerpen op de hoofdplaat.

Daar komt SOCAMM (en zijn evolutie, SOCAMM2) in beeld, een modulesysteem gebaseerd op LPDDR-geheugen dat NVIDIA presenteert als onderdeel van hun roadmap voor AI-systemen. Deze aanpak breekt met de traditionele “alles vast op de plaat” benadering in servers: in plaats van DRAM direct en permanent te integreren, worden modules gebruikt die kunnen worden gemonteerd en vervangen. Dit opent de deur naar langere levenscycli, flexibel onderhoud en vooral een nieuwe manier van geheugenverdeling rondom grote chips.

Waarom SOCAMM ertoe doet, ondanks HBM

HBM blijft de krachtpatser voor de GPU. Maar het volledige systeem leunt niet alleen op HBM: het heeft ook geheugen nodig voor CPU-taken, services, orkestratie, wachtrijen, voorbewerking, caches en een groeiend deel van inferentie, waar energie-efficiëntie en schaalbaarheid cruciaal zijn. Hier speelt LPDDR met een voordeel door zijn energiezuinigheid en hoge dichtheid, en SOCAMM streeft ernaar dit geheugen “servicebaar” te maken in een modulaire vorm.

NVIDIA heeft SOCAMM2 op de radar geplaatst binnen hun Rubin-platform en de evolutie van grote schaal systemen, waarbij niet alleen meer FLOPS het doel zijn, maar vooral ook het efficiënter voeden van data aan de machine zonder energieverspilling of complexiteit te verhogen. De belofte, zoals beschreven in de vakpers, is duidelijk: LPDDR in servergerichte modules integreren, met een meer nabije aansluiting op de processor en ruimte voor configuratiewijzigingen zonder de hele moederplaat te hoeven vervangen.

Modulariteit: het detail dat de operatie kan veranderen

In de praktijk betekent modulariteit voor infrastructuurbeheerders twee belangrijke punten:

  1. Onderhoud en vervanging: Bij een defect geheugenblok verandert de “vastgelijmde op de plaat”-oplossing in een logistieke en financiële nachtmerrie. Modulariteit maakt vervanging veel eenvoudiger en sneller, vergelijkbaar met standaardonderdelen uit voorraad.
  2. Levensduur van de server: In omgevingen waar de verversingscycli onder druk staan, kan het met gedeeltelijke upgrades mogelijk zijn om een systeem langer operationeel te houden, of minimaal een volledige RMA voor een enkel defect te vermijden — een echte operationele troef.

Dit betekent niet dat SOCAMM onder het kopje “plug & play” valt zoals een klassieke DIMM. Het is geen universeel standaardformat, en dat brengt momenteel ook enige spanning met zich mee.

De grote vraag: komt er een standaard of gaat iedereen zijn eigen gang?

Tot nu toe wordt SOCAMM vooral gezien als een door NVIDIA gestarte investering, niet als een door JEDEC gestandaardiseerd formaat vanaf het begin. Dat is relevant: in geheugen bepaalt de standaard de schaal, en de schaal beïnvloedt de prijs en beschikbaarheid.

Volgens sommige industriële bronnen in Azië onderzoeken Qualcomm en AMD de opname van SOCAMM in toekomstige chips en serverplatforms voor AI, waarmee het front van SOCAMM zich mogelijk uitbreidt van één enkele speler naar meerdere. Als dat gebeurt, zal de noodzaak voor formele specificaties, compatibiliteit en varianten (zoals modulevorm, chipopmaak, energiebeheer) toenemen — niemand wil afhankelijk zijn van een gepatenteerd ontwerp om een volledige productlijn te construeren.

Bij succesvolle productimplementaties zou het gevolg onmiddellijk merkbaar zijn: SOCAMM zou niet meer enkel “de NVIDIA-module” zijn, maar een formaat dat gestandaardiseerd of in ieder geval geharmoniseerd wordt tussen verschillende siliciumontwerpers.

Het onvermijdelijke duel: LPDDR voedt niet alleen datacenters, maar ook smartphones

Hier ligt de andere kant van de medaille: SOCAMM is gemaakt van LPDDR. En LPDDR is niet oneindig: het is een van de belangrijkste geheugensoorten in de mobiele markt en veel andere eindapparaten. Als AI-platforms een substantieel deel van LPDDR-geheugen voor servers gaan gebruiken, merkt de markt dat meteen aan de vraag.

Al in de industrie wordt gesproken over spanningen in de toeleveringsketen en de noodzaak om capaciteiten te coördineren tussen hoogwaardig geheugen (HBM) en volumegericht geheugen (LPDDR). Vooral als de vraag in AI blijft groeien en datacenters concurreren om componenten die densiteit en efficiëntie verbeteren. Met andere woorden: zelfs zonder acute schaarste, wordt de druk op prijzen en reserveringen groter door een voortdurende vraag, waardoor sommige fabrikanten prioriteit moeten geven aan bepaalde segmenten en klanten.

Waar infrastructuuraannemers in 2026 op moeten letten

Voor systemen, inkoop- of capaciteitsplanners wijst SOCAMM op meerdere samenhangende trends:

  • Meer hybride geheugendesigns: HBM voor GPU’s, maar modulaire LPDDR voor de rest van het systeem en inferentie-profielen waar kosten belangrijker zijn dan pure prestaties.
  • Toenemend belang van service en reparatie: modulariteit betekent niet alleen techniek, maar ook beschikbaarheid en snelle herstelmogelijkheden.
  • Risico van “wees-ook-hoe-het-voor-het-beeld-helpt”: zonder voldoende standaardisatie bestaat het gevaar dat platforms moeilijk te onderhouden worden op de lange termijn.
  • Effect op prijzen en toeleveringsketen: als LPDDR serieus wordt ingezet in AI-servers, kunnen procurementcycli en voorraden uitvoerig worden beïnvloed.

SAMM, kortom, komt niet om HBM te vervangen. Het vult een leegte in die het AI-serverlandschap achterliet: efficiënt, schaalbaar en praktischer te beheren geheugen in een wereld waarin alles steeds sneller gaat… en waarin elk vervangbaar onderdeel zonder de hele moederplaat opnieuw te hoeven ontwerpen goud waard is.


Veelgestelde vragen (FAQ)

Wat is SOCAMM en hoe verschilt het van traditioneel servergeheugen?
SOCAMM is een modulaire benadering gebaseerd op LPDDR, gericht op AI-platforms. In tegenstelling tot “vastgelast” geheugen op de plaat, biedt het modulariteit en energie-efficiëntie, ontworpen voor geaccelereerde systemen.

Vervangt SOCAMM HBM in AI-GPU’s?
Nee. HBM blijft essentieel voor de GPU’s die hoge bandbreedtes nodig hebben. SOCAMM richt zich vooral op geheugentoegang voor het gehele systeem en architecturen waar efficiëntie en dichtheid net zo belangrijk zijn als raw performance.

Kan SOCAMM de prijzen verhogen of LPDDR-schaarste veroorzaken in andere markten?
Als het gebruik van LPDDR in AI-servers toeneemt, kan dat de toeleveringsketen onder druk zetten en prijzen beïnvloeden, vooral bij hoge vraagperiodes.

Waar moet een infrastructuurteam op letten voordat ze voor SOCAMM kiezen?
Verduidelijking van compatibiliteit, beschikbaarheid van vervangingsonderdelen, lange-termijn support en signalen van standaardisatie (of multi-vendor adoptie) om afhankelijkheid van een te specifieke oplossing te voorkomen.

vía: hankyung en Jukan

Scroll naar boven