YMTC zet in op high-bandwidth Flash: China’s innovatieve geheugen voor AI-GPU’s

De loopbaan van kunstmatige intelligentie wordt langzaam minder afhankelijk van alleen het produceren van meer GPU’s of het trainen van de grootste modellen. In 2026 wordt de bottleneck steeds duidelijker: het geheugen. Vooral de bandwidth, capaciteit en vooral de beschikbaarheid maken dat technologische spelers op zoek gaan naar nieuwe oplossingen. Een opvallende ontwikkeling speelt zich af in China, waar Yangtze Memory Technologies (YMTC) zich richt op een innovatief concept genaamd High Bandwidth Flash (HBF). Dit nieuwe geheugenconcept tracht NAND 3D-technologie dichter bij het computationele proces te brengen, een rol die momenteel voorbehouden is aan high-bandwidth memory (HBM), essentieel in AI-versnellers.

De basisgedachte achter HBF is eenvoudig, maar brengt de markt uit balans. HBM biedt uitzonderlijke prestaties, maar is duur, complex om te verwerken en qua capaciteit gelimiteerd nabij de GPU. Naarmate AI-modellen groeien, wordt niet alleen snelheid belangrijk, maar ook het vasthouden van grote hoeveelheden data: zoals gewichten, tussentoestanden, checkpoints en datasets. YMTC stelt voor dat flashgeheugen hierin een nieuwe rol kan spelen — niet meer alleen als externe opslag, maar als geïntegreerde, gestapelde geheugenmodule met veel hogere bandbreedte dan conventionele SSD’s.

Wat is HBF en waarom verschijnt het nu in het gesprek?
HBF mikt op het ontwikkelen van een uiterst capaciteitrijke flashgeheugenmodule die dichter bij de rekenkern wordt geplaatst. Het ontwerp richt zich op dataverplaatsingen met snelheden die vergelijkbaar zijn met die van HBM, maar met 8 tot 16 keer de capaciteit. Het idee is niet om HBF te vervangen door HBM, maar om het geheugen ‘naast’ de GPU te laten functioneren, waardoor de druk op dure en beperkte HBM-oplossingen wordt verlicht. Dit moet vooral handig zijn voor toepassingen zoals inferentie, waar grote hoeveelheden data snel moeten worden opgeslagen en verwerkt.

Deze ontwikkeling is niet op zichzelf staand. Grote spelers zoals Sandisk en SK Hynix werken aan het standaardiseren van HBF-technologie, gericht op het ondersteunen van AI-workloads en het bieden van een evenwicht tussen bandbreedte en capaciteit, met proefmonsters die al tegen 2026 klaar kunnen zijn en eerste apparaten in 2027. Het is duidelijk dat de industrie probeert een nieuwe geheugenlaag uit te vinden die toekomstbestendig is voor de AI-revolutie.

YMTC’s strategie ligt in het innoveren met NAND-technologie op basis van hun Xtacking-architectuur, waarbij geheugenblokken en logische componenten los worden vervaardigd en via bonding worden gecombineerd. Dit geeft hen de flexibiliteit om de prestaties en schaalbaarheid van hun geheugenproducten te verbeteren. Geopolitiek speelt hierbij een belangrijke rol, omdat China probeert de afhankelijkheid van buitenlandse geheugentechnologie te verminderen en tegelijkertijd haar positie op de wereldmarkt te versterken. Hoewel China momenteel niet de markt voor HBM domineert, kan het met NAND en geavanceerde bundlingtechnologie toch een alternatief en een speerpunt worden.

De vergelijking tussen HBM en HBF is cruciaal om de impact te begrijpen. HBM biedt lage latentie en is ideaal voor snelle datastromen naar GPU’s, maar met beperkte capaciteit en een complexe productie. Flashgeheugen is veel goedkoper per gigabyte en schaalbaar, maar heeft hogere latentie en is niet geschikt voor de snelle front-line geheugenrol. HBF probeert hier tussenin te positioneren door in de buurt van de rekenkern meer data op te slaan zonder de hoge kosten en complexiteit van HBM.

Deze ontwikkeling kan de machtsverhoudingen tussen grote geheugenspeler zoals Samsung en SK Hynix veranderen. Als de markt accepteert dat een deel van de capaciteit via gestapelde flash wordt gerealiseerd, raakt de vraag naar traditionele HBM-implementaties en de bijbehorende standaarden onder druk. China’s ambitie om met NAND en bonding-technologieën een eigen pad te kiezen, zou kunnen leiden tot een nieuwe speelbal in de wereld van geheugentechnologie.

Maar er blijven grote vragen. Kan flash de betrouwbaarheid en levensduur bieden die nodig zijn? Hoe zal het softwarestack evolueren om deze nieuwe geheugenhiërarchie optimaal te benutten zonder prestatierisico’s? Het zoeken naar balans tussen kosten, capaciteit en snelheid blijft uitdagend. Of HBF daadwerkelijk de nieuw benodigde geheugenlaag wordt, hangt af van de mate waarin het in real-world systemen kan integreren zonder prestatieverlies of verhoogd energieverbruik.

Een fundamentele vraag blijft: helpt HBF de AI-sector dat minder GPU’s nodig zijn voor een bepaalde taak, of maakt het vooral meer mogelijk met dezelfde hardware? Als het vooral meer capaciteit biedt zonder de afhankelijkheid van duur HBM te verminderen, zal de markt het nog steeds omarmen wegens de wens om te schalen. Maar als het een nieuwe standaard kan worden voor geheugenhiërarchieën in AI, wordt de balans verlegd, met grote implicaties voor wereldwijde marktdynamiek en geopolitiek.

Scroll naar boven