De hype rondom AI-versnellers wordt vaak begonnen bij GPUs, datacenters en de benodigde energie om deze aan te drijven. Maar er is een minder zichtbaar onderdeel dat de hele keten begint te condicioneren: het geheugen. Zonder voldoende DRAM, NAND en HBM kunnen modellen niet trainen of reageren op het tempo dat fabrikanten beloven.
Micron heeft dat onlangs duidelijk gemaakt met recordresultaten en nog krachtigere boodschap: de huidige vraag naar geheugen voor AI is slechts het begin. Sanjay Mehrotra, president en CEO van het bedrijf, beschreef deze fase als de “eerste innings” van een transformatie die volgens zijn interpretatie meer capaciteit, meer bandbreedte en meer efficiëntie in elke nieuwe generatie servers en versnellers zal vereisen.
Een recordkwartaal voor Micron
Micron sloot haar tweede fiscale kwartaal van 2026 af op 26 februari met een omzet van 23,86 miljard dollar, vergeleken met 13,64 miljard van het vorige kwartaal en 8,05 miljard een jaar eerder. De GAAP-netto winst bedroeg 13,79 miljard dollar, of 12,07 dollar per verwaterde aandeel, terwijl de niet-GAAP netto winst 14,02 miljard bereikte, of 12,20 dollar per aandeel.
Het bedrijf noteerde ook een operationele kasstroom van 11,9 miljard dollar en een aangepaste vrije kasstroom van 6,9 miljard dollar. Dit zijn cijfers die zelfs voor een geheugendirecteur in een gunstige cyclus ongewoon zijn. De niet-GAAP brutomarge kwam uit op 74,9%, ver boven de 37,9% van dezelfde periode vorig jaar.
| Financiële metrics Q2 2026 | Resultaat | Q2 2025 |
|---|---|---|
| Omzet | 23,86 miljard dollar | 8,05 miljard |
| GAAP-netto winst | 13,79 miljard dollar | 1,58 miljard |
| EPS (geverwaterd) GAAP | 12,07 dollar | 1,41 dollar |
| Niet-GAAP brutomarge | 74,9 % | 37,9 % |
| Operationele kasstroom | 11,9 miljard dollar | 3,94 miljard |
| Aangepaste vrije kasstroom | 6,9 miljard dollar | 857 miljoen |
De toename komt niet uit één enkele divisie. Cloud-geheugen verdiende 7,75 miljard dollar; Core Data Center 5,69 miljard; Mobile en Client 7,71 miljard; en Automotive en Embedded 2,71 miljard. Allen laten ze brede verbetering zien, hoewel datacenters en AI de sector aan het veranderen zijn.
Voor het derde fiscale kwartaal verwacht Micron een omzet van ongeveer 33,5 miljard dollar, met een brutomarge van circa 81% en een niet-GAAP winst per aandeel van 19,15 dollar, met een bandbreedte van 0,40 dollar. Deze vooruitzicht bevestigt dat het recordkwartaal niet als een geïsoleerd hoogtepunt wordt gezien, maar als onderdeel van een fase van voortdurende vraag.
AI maakt geheugen tot een strategisch actief
Jarenlang werd de markt voor geheugen beschouwd als een van de meest cyclische in de technologiewereld. Wanneer het aanbod het overnam van de vraag, daalden de prijzen stevig; bij schaarste stegen de marges. Maar nu verandert de aard van die vraag door AI.
Micron beweert dat de vraag naar DRAM en NAND voor datacenters aangedreven door AI voor het eerst in 2026 meer dan 50% van de totale markt voor bits zal uitmaken. Het bedrijf stelt ook dat zowel de vraag naar traditionele servers als naar AI-servers wordt beperkt door een tekort aan voldoende supply van DRAM en NAND.
De reden is simpel. Het trainen en uitvoeren van geavanceerde modellen vereist niet alleen rekenkracht, maar ook het snel overdragen van enorme hoeveelheden data. HBM (High Bandwidth Memory) is geworden tot een essentieel geheugen voor GPUs en AI-accelerators, omdat het veel bandbreedte biedt vlakbij de chip. Maar het is duur, complex te produceren en verbruikt industriële capaciteit die ook voor andere DRAM-producten gebruikt zou kunnen worden.
Het probleem strekt zich uit buiten HBM. Inferentie, oftewel het dagelijkse gebruiken van modellen om op gebruikers te reageren, code te genereren, documenten te analyseren of agenten te coördineren, verhoogt eveneens de geheugenbehoefte. Hoe meer tokens modellen verwerken, hoe meer druk er ontstaat op DRAM, LPDDR, datacenter SSDs en NAND voor workloads zoals vectorbanken of caching van KV.
Micron bevestigt dat de snelle groei van inferentie nieuwe, geoptimaliseerde architecturen aandrijft, gericht op de economie van tokens. Dat vat goed samen waar de verandering ligt: het gaat niet alleen meer om af en toe grote modellen trainen, maar om ze continu te bedienen, met miljoenen verzoeken, lange contexten en ketenagentsystemen.
HBM4, LPDDR en SSDs: de nieuwe geheugenpijlers van AI
De productlijn van Micron weerspiegelt ook de richting van de industrie. Het bedrijf is gestart met volumeleveringen van HBM4, 36 GB en 12 lagen, ontworpen voor de NVIDIA Vera Rubin-platform. Daarnaast heeft het al samples van een HBM4 met 16 lagen en 48 GB per kubus, wat 33% meer capaciteit is dan de 12-laagse versie.
De volgende stap is HBM4E, waarvan de grootschalige productie gepland staat voor 2027. Micron verwacht dat deze generatie gebruik zal maken van hun 1γ-DRAM-node en verdere prestatiewinsten zal brengen voor AI-platformen. In de praktijk is HBM een van de componenten die het vermogen van een moderne GPU bepalen om grote modellen te trainen en uit te voeren.
Maar Micron kijkt ook verder buiten HBM. In LPDDR-geheugen voor datacenters heeft Micron monsters getoond van SOCAMM2 van 256 GB, gebaseerd op LPDDR, met de belofte dat deze tot 2 TB per CPU kunnen bieden. Het voordeel van LPDDR in servers is hun energie-efficiëntie: minder stroomverbruik per verplaatste bit, wat belangrijk is nu dat datacenters beperkt worden door energie, koeling en ruimte.
Ook in opslag speelt NAND een rol in de AI-ontwikkelingen. Vector-databases, SSDs in lagen voor capaciteit en caching, verhogen de vraag in datacenters. Micron zegt dat haar NAND-inkomsten voor datacenters tijdens het kwartaal meer dan verdubbelden en dat de vraag de beschikbare supply voorlopig ruimschoots overtreft.
| Technologie | Rol in AI |
|---|---|
| HBM | Voedt GPUs en accelerators met zeer hoge bandbreedte |
| DRAM DDR | Ondersteunt traditionele servers, CPUs en aanvullende AI-workloads |
| LPDDR / SOCAMM | Vermindert energieverbruik in efficiënte serverarchitecturen |
| NAND / SSD | Ondersteunt vectorbanken, datalager en caching |
| HBM4E | Volgende generatie voor zwaardere AI-platformen |
Tekorten kunnen langer duren dan klanten verwachten
Het onprettige bericht van Micron is dat het vergroten van de productie niet snel gaat. Het opzetten van fabrieken, uitbreiden van clean rooms, installeren van lithografiesystemen, proceskwalificatie en het behalen van rendementen kost jaren. Micron verwacht dat de vraag naar bits van DRAM en NAND in 2026 door aanbod wordt beperkt en dat de krapte zelfs daarna nog aanhoudt.
Het bedrijf anticipeert op meer investeringen. Voor fiscal year 2026 voorziet het een capex van meer dan 25 miljard dollar en verwacht het later in 2027 extra investeringen voor HBM- en DRAM-ontwikkelingen. Hun plannen omvatten uitbreiding van wereldwijde fabricage, projecten in Idaho en New York, aankoop van een site in Tongluo (Taiwan), uitbreidingen in Japan en een nieuwe NAND-fabriek in Singapore, met eerste wafers gepland voor de tweede helft van 2028.
Hierdoor kan de geheugenmarkt verder gespannen blijven. Hoewel fabrikanten meer willen produceren, komt extra capaciteit niet zomaar van de ene op de andere dag. HBM heeft een hoog “ratiopercentage”: het vereist meer fabricagecapaciteit voor een bepaalde hoeveelheid bruikbare geheugen dan traditionele DRAM. Als fabrikanten prioriteit geven aan HBM vanwege de winstgevendheid en vraag, kunnen andere segmenten nog meer onder druk komen te staan.
Dit is al zichtbaar in PC- en mobiele markten. Micron waarschuwt dat in 2026 onder andere de beperkingen in DRAM en NAND kunnen leiden tot dubbele cijfers dalingen in pc- en smartphonemarkt. Tegelijkertijd kan AI op apparaten het geheugengebruik per apparaat verhogen. Bijvoorbeeld, voor high-end gebruikers wordt 32 GB nu steeds gangbaarder in AI-toepassingen, wat het minimale niveau voor veel gevorderde gebruikers omhoog brengt.
Het geheugencyclus betreedt een ander stadium
De grote vraag is of deze huidige hype slechts een nieuwe cyclus van prijsstijging en correctie wordt of dat AI een meer duurzame, structurele vraagbasis schept. Micron gelooft in de tweede theorie. Niet omdat cycli verdwijnen, maar omdat datacenters, inferentie, AI-agenten, robotics, elektronica in voertuigen en lokale AI-algoritmes gezamenlijk het geheugengebruik in veel lagen verhogen.
Deze visie klinkt plausibel, maar moet niet overdrijven. Geheugen blijft een markt die gevoelig is voor overinvestering, prijsschommelingen en voorraadaanpassingen. Als klanten investeringen afbouwen, modellen efficiënter worden of het aanbod te snel groeit, kan de cyclus omslaan. Maar de kern is dat de vraag vandaag niet alleen uit smartphones en pc’s komt, maar uit een nieuwe wereldwijde infrastructuur die hoge prestaties vereist.
Voor cloudproviders en modelontwikkelaars is de conclusie duidelijk: de beschikbaarheid van geheugen kan net zo belangrijk worden als toegang tot GPUs. Voor datacenters komt daar extra druk op energie, koeling en systeemarchitectuur bij. Voor pc- en smartphone-producenten brengt het spanning tussen hogere prijzen en de behoefte aan meer RAM voor AI-local processing.
Micron’s resultaten tonen dat we in een uitzonderlijke fase zitten. Maar het belangrijkste is niet alleen het kwartaalresultaat, maar de onderliggende boodschap: AI transformeert geheugen tot een strategisch technologisch fundament. Als inferentie en AI-systemen blijven groeien zoals de industrie verwacht, wordt de vraag niet enkel “Hoeveel GPUs kunnen we kopen?” maar ook “Hoeveel snel geheugen kunnen we krijgen, tegen welke prijs en met welke garanties?”
Veelgestelde vragen
Waarom heeft AI zoveel geheugen nodig?
Omdat modellen enorme hoeveelheden data moeten verplaatsen en opslaan tijdens training en inferentie. Hoe groter de modellen en hoe langer de contexten, des te meer druk op HBM, DRAM en snelle opslag ontstaat.
Wat is HBM en waarom is het belangrijk?
HBM is hoog-bandbreedtegeheugen dicht bij de accelerator, essentieel voor AI-GPU’s doordat het data razendsnel kan aanvoeren.
Welke resultaten presenteerde Micron in haar Q2 van 2026?
Micron behaalde een omzet van 23,86 miljard dollar, GAAP-winst van 13,79 miljard dollar en een operationele kasstroom van 11,9 miljard dollar.
Kan de geheugen-tekort ook PC’s en smartphones raken?
Ja. Micron waarschuwt dat beperkingen in DRAM en NAND in 2026 de markt voor pc’s en smartphones kunnen drukken, hoewel lokale AI het geheugengebruik per apparaat ook zal doen toenemen.
