De race om Kunstmatige Intelligentie wordt niet alleen uitgevochten op GPU’s. Het wordt ook beslist op een stillere laag, maar steeds belangrijker: opslag. Naarmate modellen groeien, AI-agenten autonomie winnen en bedrijven infrastructuren bouwen die continu tokens produceren en consumeren, moeten datacenters enorme hoeveelheden gegevens verplaatsen, opvragen en bewaren zonder het energieverbruik te doen exploderen of de accelerators onbenut te laten.
Kioxia probeert zich precies op dat punt te positioneren. Het Japanse bedrijf, erfgenaam van Toshiba’s geheugenspecialisatie, presenteerde de afgelopen maanden een reeks technologieën die high-capacity SSD’s, lage-latentie flashgeheugen, software voor vector zoekopdrachten en nieuwe methoden voor de koppeling van opslag en GPU combineert. De kernidee is helder: NAND moet niet meer alleen worden gezien als een goedkope laag voor gegevensopslag, maar als een actieve component in de AI-architectuur.
De strategie komt op een kritisch moment voor datacenters. HBM-geheugen is essentieel voor het optimaliseren van GPU-prestaties, maar is duur, energie-intensief en fysiek beperkt qua capaciteit. Systeemd RAM biedt meer ruimte, maar schaalt niet snel genoeg voor generatieve AI. In dat gat winnen enterprise SSD’s aan waarde als geheugenuitbreiding, cache dicht bij het computationele proces en ondersteuning voor vectorbanken, RAG, inferentie en training.
SSD van 245 TB voor data lakes en vector databases
Een van de meest opvallende producten van Kioxia is de LC9-serie, een enterprise NVMe SSD met een capaciteit van maar liefst 245,76 TB. Het bedrijf presenteerde dit als de eerste NVMe SSD van dat formaat, met een 2,5-inch formaat en EDSFF E3.L, PCIe 5.0 interface en BiCS FLASH QLC 3D flash memory met 32 lagen.
Deze eenheid is niet bedoeld voor consumentencomputers of zelfs standaard servers. Hij is ontworpen voor data lakes, trainingsrepositories, contentbibliotheken, zoekmachines en vector databases die enorme hoeveelheden data dicht bij de infrastructuur voor gegevensverwerking moeten bewaren. In omgevingen van generatieve AI is capaciteit alleen niet genoeg: data moet snel toegankelijk zijn zodat GPU’s niet onnodig wachten.
De sprong van traditionele harde schijven naar deze SSD’s beperkt zich niet tot snelheid. Het gaat ook om rackdichtheid, energiekosten per terabyte en operationele complexiteit. Minder fysieke eenheden betekent minder lade-assemblages, minder potentiële faalpunten en eenvoudigere beheerprocessen, al blijven de initiële kosten per terabyte een belangrijke factor. Daarom vervangen deze high-capacity SSD’s niet meteen HDD’s, maar veranderen ze wel de conversatie waar latency en prestaties per watt mede belangrijk zijn.
Kioxia positioneert de LC9 binnen een bredere trend: het omschakelen van flashopslag naar een meer datagerichte rol. In plaats van data continu te verplaatsen van een groot remote repository naar het compute-systeem, kan een deel van de data dichterbij de GPU blijven, opgeslagen op SSD’s die direct kunnen worden benaderd. Die nabijheid vermindert netwerktoegang, verbetert de data beschikbaarheid en maakt meer gebalanceerde infrastructuren mogelijk.
XL-FLASH en extreem IOPS SSD’s voor GPU-voeding
De tweede lijn richt zich minder op capaciteit en meer op latency. Kioxia presenteert oplossingen gebaseerd op XL-FLASH, een soort Storage Class Memory dat zich positioneert tussen DRAM en conventionele NAND. Het competeert niet puur op densiteit, maar op snellere toegang en een veel grotere hoeveelheid I/O per seconde.
Tijdens GTC 2026 introduceerde Kioxia ontwikkelingen gericht op wat zij “AI-ready storage” noemen, waaronder een SSD-emulator die meer dan 100 miljoen IOPS kan bereiken en oplossingen ontworpen voor precisie dichtbij GPU’s. Het bedrijf werkte bovendien samen met NVIDIA aan ontwerpen die de bottleneck tussen opslag en accelerators verminderen, steeds belangrijker bij grootschalige inferentie en systemen die grote modellen of databases raadplegen.
Het technische hoogstandje ligt in het type toegang. Veel AI-belastingen vereisen niet alleen grote sequentiële kopieën. Ze lezen ook kleine, frequente en willekeurige gegevens – zoals parameters, vectoren, contextfragmenten of data voor RAG-systemen. In dat scenario volstaat alleen meten in gigabytes per seconde niet: IOPS, latency en gelijktijdige verzoeken worden evenwichtig belangrijk.
Het sector wijst hier niet alleen op. De hele industrie onderzoekt manieren om opslag en compute nóg verder te integreren: directe GPU-toegang, DPUs, CXL, persistent memory, gespecialiseerde caches en geavanceerdere packaging technieken. Kioxia zet in op een combinatie van lage-latentie flash, nieuwe controllers en architecturen die GPU’s direct toegang geven tot data met minder CPU-interventie.
AiSAQ: zoek direct in SSD zonder alles in DRAM te laden
Ook de software krijgt meer aandacht. Kioxia heeft AiSAQ vrijgegeven, een opensourcetechnologie voor approximate nearest neighbor (ANN) zoekopdrachten, geoptimaliseerd voor SSD. Het doel is de druk op DRAM te verminderen in RAG-systemen, waar vectorindices vaak grote delen in geheugen moeten laden voor snelle antwoorden.
AiSAQ maakt het mogelijk dat delen van die indices direct in SSD worden doorzocht, zonder alles naar DRAM te moeten halen. Dit helpt bij het opschalen van grote vectordatabases tegen lagere geheugenkosten, al hangt de uiteindelijke prestatie af van de gebruikte SSD, de grootte van de index, de vereiste precisie en de toepassing zelf.
Dit sluit aan bij de oncomfortabele realiteit voor veel bedrijven: het inzetten van RAG in productie vergt niet alleen het koppelen van taalmodellen aan bedrijfsdocumenten. Het betekent het opslaan, bijwerken, versies beheren en doorzoeken van miljoenen of miljarden vectoren. Als de snelheid alleen afhankelijk is van DRAM-technologie, worden de kosten snel onhoudbaar. Het gebruik van SSD’s als actieve component in zoekfuncties biedt een middenweg tussen capaciteit en snelheid.
Kioxia ontwikkelt ook de geheugenbasis voor deze oplossingen. Hun BiCS FLASH-strategie combineert een negende generatie, gericht op productie-efficiëntie en performance via CBA-technologie, met een tiende generatie die het aantal lagen verhoogt tot 332 voor betere dichtheid, snelheid en energie-efficiëntie. Samen met SanDisk introduceerde het bedrijf ook een 3D flash-technologie met snelheden van 4,8 Gb/s, hogere densiteit van bits en lager energieverbruik bij I/O-operaties.
De inzet in de industrie is breed. Al decennia lang richten datacenters zich op CPU, geheugen en opslag met een duidelijke hiërarchie. AI dringt die grenzen door. HBM blijft essentieel naast GPU’s, maar is niet meer allesomvattend. DRAM blijft kritisch, maar is kostbaar en beperkt in volume. NAND, door zijn 3D-structuur en het vermogen door te blijven groeien qua densiteit, krijgt ruimte voor een meer geavanceerde rol.
Kioxia speelt in op deze trends met een portfolio dat drie verschillende behoeften adresseert: enorme capaciteit met LC9, extreem hoge prestaties met XL-FLASH en minder afhankelijkheid van DRAM met AiSAQ. Hoewel niet alle oplossingen meteen breed commercieel beschikbaar zijn, schetsen ze samen een duidelijk pad: opslag wordt geen passieve component plus AI, maar actief onderdeel van het systeemontwerp.
Voor datacentermanagers wordt de vraag niet langer alleen hoeveel petabytes ze kunnen inzetten. Ze moeten ook bepalen waar die data komt te liggen, hoe ze verbonden wordt met GPU’s, welk deel in HBM, welk deel in DRAM, welk deel in lage-latency SSD’s en wat in massale opslag blijft. In AI-fabrieken kan die architectuur het verschil maken tussen onderbenutte hardware of dure hardware die wacht op data.
Veelgestelde vragen
Wat stelt Kioxia voor op het gebied van AI-opslag?
Kioxia combineert ultra-high capacity SSD’s, lage-latentie XL-FLASH-geheugen, software voor vectorzoekkosten en technologieën die opslag dichter bij GPU’s brengen.
Wat is de capaciteit van de Kioxia LC9 SSD?
De LC9-serie bereikt 245,76 TB in 2,5-inch en EDSFF E3.L formaten, met PCIe 5.0 en BiCS FLASH QLC 3D geheugen.
Wat is AiSAQ en waarvoor dient het?
AiSAQ is een open source software van Kioxia voor vectorzoekopdrachten op SSD, bedoeld om de noodzaak om indices volledig in DRAM te laden te verminderen in RAG-toepassingen.
Waarom zijn SSD’s belangrijk voor kunstmatige intelligentie?
Omdat AI-belastingen grote hoeveelheden data moeten kunnen opslaan, ophalen en verwerken met lage latency. Als opslag niet snel genoeg is, blijven GPU’s onderbenut.
ontvangen via: en.eeworld
