Tijdens de zoektocht naar de volgende grote sprongen in Kunstmatige Intelligentie (AI) evolueren de technologische uitdagingen niet alleen rond snelle processors en accelerators. Steeds vaker ligt de bottleneck in het geheugen: hoeveel data kan worden opgeslagen, hoe snel het kan worden verplaatst en, cruciaal, hoeveel energie dat kost. In dit kader presenteert SK hynix hun toekomstvisie op CES 2026, waarin ze vooruitblikken op de innovaties die de industrie mogelijk zullen transformeren. Van de geavanceerde HBM4-geheugens met hoge capaciteit tot nieuwe modules die specifiek ontworpen zijn voor AI-servers en mobiele apparaten met “on-device AI”.
Het Zuid-Koreaanse bedrijf kondigde aan dat ze een beursstand zullen openen in de Venetian Expo te Las Vegas, tussen 6 en 9 januari 2026. Hun boodschap, “Innovative AI, Sustainable tomorrow”, onderstreept dat duurzaamheid tegenwoordig centraal staat in datacenters, waar prestaties, koeling en operationele kosten steeds belangrijker worden. Duurzaamheid wordt niet slechts gebruikt als een marketingterm; het verwijst naar prestatie per watt en een efficiënte volledige keten, van chip tot systeem.
Een van de vlaggenschipproducten die zal worden getoond, is de nieuwe HBM4-geheugenmodule: 16 lagen met een capaciteit van 48 GB. Deze evolutionaire stap volgt op de HBM4-12 lagen en 36 GB, die al snelheden van 11,7 Gbps bereikten. De compressie van capaciteit en snelheid speelt een essentiële rol in de groei van AI-accelerators, waar grote modellen meer context en parallelisme vereisen. De sprong naar 48 GB in 16 lagen benadrukt SK hynix’ ambitie om te blijven voldoen aan de toenemende vraag naar krachtigere geheugenoplossingen.
Hoewel de exacte lanceringstermijnen nog niet bekend zijn, maakt het bedrijf duidelijk dat de ontwikkeling van HBM4-48 GB zorgvuldig wordt afgestemd op de marktbehoeften en dat het een indicatie geeft van waar hun productportfolio naartoe gaat voor AI-infrastuctuur.
Naast de HBM4-48 GB zal SK hynix ook de HBM3E met 36 GB presenteren, enkellaags en bedoeld om dit jaar de markt te versterken. Dit type geheugen speelt momenteel een sleutelrol in bestaande AI-servers. Hun bedoeling is om te laten zien hoe deze modules geïntegreerd kunnen worden in complete systemen, bijvoorbeeld in GPU-krachtpatsers voor datacenters.
Verder zullen ze SOCAMM2 demonsteren, een energiezuinig module dat ontworpen is voor AI-servers, hetgeen hun strategie onderstreept dat AI-oplossingen niet alleen over kracht, maar vooral over efficiëntie gaan. Deze modules ondersteunen niet alleen hoge bandbreedte, maar passen ook in een bredere, efficiëntere systeemaanpak voor AI.
Daarnaast wordt LPDDR6 aangeprezen, gericht op AI in apparaten. Deze mobiele geheugenstandaard biedt hogere snelheden en energiebesparing, essentieel voor lokaal draaiende AI-toepassingen in smartphones, draagbare gadgets en automotive, waar privacy, latentie en kosten belangrijke factoren zijn.
Het bedrijf toont ook NAND-geheugen: een 321-laags, 2-terabit QLC-ssd, ontworpen voor uiterst grote opslagcapaciteiten in datacenters voor AI. De noodzaak hiervoor is evident: AI-projecten genereren niet alleen.compute-kracht, maar ook enorme hoeveelheden data, checkpoints en trainingsartefacten.
Interessant is de “AI System Demo Zone”, die een toekomstbeeld schetst waarin geheugen niet langer passief is. Hier worden innovatieve concepten getoond, zoals cHBM (Custom HBM), die functies integreren die normaal gesproken in GPU’s of ASIC’s resideerden. Het doel is om de efficiëntie te verhogen en de energieverbruik te verminderen. Verder worden ideeën gepresenteerd zoals Processing-In-Memory (PIM), AiMX (een prototype voor taalmodellen), Compute-using-DRAM (CuD), CXL-verbinding modules en Data-aware CSD, dat autonome data-verwerking mogelijk maakt.
Deze ontwikkelingen tonen dat de toekomst van AI niet alleen draait om meer kracht, maar juist om het herontwerpen van systemen waarin geheugen en opslag actief meedenken. SK hynix’s aanpak richt zich op het bieden van oplossingen die waarde toevoegen voor klanten, en niet alleen op het presenteren van nieuwe chips. Volgens Justin Kim, president en hoofd van AI Infrastructure bij SK hynix, veranderen de technologische eisen van hun klanten snel en het bedrijf wil partners helpen bij het creëren van nieuw waarde in het AI-ecosysteem.
Kortom, CES 2026 wordt niet slechts een beurs voor nieuwe hardware, maar een platform waar de toekomst van AI-infrastructuur wordt gevormd. Het impliceert een paradigmashift in hoe we systemen ontwerpen, waarbij geheugen en opslag een centrale rol spelen in de schaalbaarheid, efficiëntie en kostenbeheersing van de komende generatie AI-oplossingen.
