SK hynix wint aan gewicht in Microsoft’s AI-chipstrategie

Microsoft versterkt zijn samenwerking met SK hynix op een cruciaal moment voor AI-infrastructuur. Volgens rapporten uit Zuid-Korea, gecoverd door TrendForce, plant Kwak Noh-Jung, CEO van SK hynix, deze week een ontmoeting met Bill Gates en Satya Nadella tijdens de Microsoft CEO Summit 2026. Dit is een besloten bijeenkomst in Redmond waar wereldwijde leiders uit technologie en overheidsinstellingen samenkomen.

Deze afspraak is geen puur protocollair gesprek. Het vindt plaats terwijl Microsoft snel zijn eigen AI-versnellers zoals Maia 200 uitrolt en terwijl high-bandwidth geheugen (HBM) een van de meest gewilde hulpbronnen in de sector wordt. De race om AI-prestaties hangt tegenwoordig niet alleen af van het aantal NVIDIA GPU’s dat men koopt, maar vooral van het zekerstellen van een stabiele levering van HBM, geavanceerde opslagpakketten, DRAM en NAND om steeds densere datacenters te voeden.

SK hynix speelt hierin een strategische rol. Het Zuid-Koreaanse bedrijf is een van de wereldwijde leiders in geheugentechnologie en heeft een belangrijke positie opgebouwd in HBM, het gestapelde high-performance geheugen dat naast AI-versnellers wordt gebruikt. Volgens Chosun Biz gebruikt Microsoft al SK hynix’s HBM3E van de vijfde generatie voor Maia 200 en koopt het daarnaast DRAM en NAND bij hen.

Maia 200 en Microsofts poging om meer controle over infrastructuur te krijgen

In januari 2026 presenteerde Microsoft Maia 200 als een eigen AI-versneller gericht op inferentie. Dit chipje wordt al ingezet in de Azure-regio US Central, nabij Des Moines, Iowa, met plannen om uit te breiden naar US West 3 bij Phoenix, Arizona, en latere regio’s. Daarnaast is er een preview van de Maia SDK beschikbaar, met integratie in PyTorch, Triton-compiler, geoptimaliseerde kernbibliotheken en laag-niveau toegang tot de hardware.

Dit initiatief past in een bredere trend onder grote cloud-aanbieders zoals Microsoft, Google, Amazon en Meta, die eigen chips ontwikkelen om kosten te drukken, meer controle te krijgen over hun platforms en afhankelijkheid van NVIDIA te verminderen. Het gaat niet om het volledig vervangen van GPU’s, die nog steeds cruciaal blijven, maar om het reserveren van GPU’s voor specifieke taken en intern ontwikkelen van ASICs voor kostenoptimalisatie, energie-efficiëntie en operationel beheer.

In deze context is geheugen even belangrijk geworden als de engineeringschip zelf. Een AI-chip kan veel rekenkracht hebben, maar zonder voldoende snelle data-aanvoer presteert hij niet optimaal. HBM degradeert in dit opzicht het knelpunt doordat het grote hoeveelheden data dicht bij de processor plaatst, met behulp van gestapelde en geavanceerde verpakkingsprocessen.

Daar komt SK hynix in beeld. Het bedrijf is positief beïnvloed door de groeiende vraag naar HBM voor AI en streeft naar lange-termijncontracten met strategische klanten. Voor Microsoft betekent een versterkte relatie met SK hynix stabiliteit in de levering in een markt waar beschikbare capaciteit vaak met jaren van tevoren wordt gepland en waar componentprijzen druk uitoefenen op datacenters.

OnderdeelRelevantie voor Microsoft
Maia 200Eigen AI-versneller voor inferentie in Azure
HBM3E van SK hynixHigh-bandwidth geheugen voor chipvoeding
DRAM en NANDEssentiële componenten voor servers en AI opslag
Iowa en ArizonaEerste regio’s voor Maia 200 uitrol
CapEx 2026Volgens TrendForce circa 190 miljard dollar voor Microsoft

Geheugen wordt de bottleneck voor AI

TrendForce schat dat Microsoft zijn CapEx-voorspelling voor 2026 heeft opgeschroefd tot 190 miljard dollar, een stijging van ongeveer 130% ten opzichte van het voorgaande jaar. Daarbij gaat ongeveer 25 miljard dollars op aan hogere kosten voor componenten. Een teken dat het grootste deel van de uitgaven niet alleen voor het uitbreiden van datacenter-capaciteit is, maar vooral voor het betalen van duurdere geheugenchips, servers en kritische onderdelen.

Niet alleen Microsoft merkt deze druk. Grote cloud providers zoals Google, Amazon en Meta investeren fors in GPU-clusters, eigen ASIC-ontwerpen, high-performance netwerken en geavanceerd geheugen. Maar met de toenemende vraag wordt de supplyketen steeds nijpender, vooral voor HBM, dat smetteloos gestapeld en verpakt moet worden — een complex proces dat niet met standaard geheugenchips kan worden afgehandeld.

Voor SK hynix biedt dit enorme kansen. Het bedrijf concurreert al met Samsung en Micron op het gebied van geavanceerd geheugen en kan zich met HBM onderscheiden door strategische allianties met AI-infrastructuurklanten. Mocht Microsoft meer Maia 200 en toekomstige ASIC-versies willen uitrollen, dan moet het kunnen rekenen op een betrouwbare en geschikte geheugenvoorziening.

De geplande ontmoeting tussen Kwak Noh-Jung, Bill Gates en Satya Nadella moet daarom worden begrepen binnen dit strategische kader. Het is niet enkel een verkoopgesprek voor chips, maar een samenwerkingsproces bij het ontwerpen van de volgende AI-infrastructuur, inclusief geheugen, verpakkingsmethoden en datacenter-integraties. De relatie tussen geheugentoevoer en grote cloudaanbieders wordt steeds meer strategisch in plaats van transactioneel.

Ook speelt geopolitiek mee. Zuid-Korea herbergt met SK hynix en Samsung twee belangrijke spelers op het geheugengebied, terwijl de VS inzetten op het versterken van hun eigen halfgeleiderindustrie en het verminderen van afhankelijkheid van China. In een markt onder druk door exportbeperkingen en gewelddadige vraag naar AI-middelen, wordt het essentieel om strategische allianties met Koreaanse fabrikanten te onderhouden.

Minder afhankelijkheid van NVIDIA, maar meer van de geheugenketen

Microsoft kan niet simpelweg minder afhankelijk worden van NVIDIA door eigen chips te ontwerpen. Een interne ASIC vereist geheugen, software, verpakkingsketens, fabricagecapaciteit, rack-integratie en netwerkverbindingen. De afhankelijkheid verschuift, maar wordt niet geëlimineerd.

Maia 200 illustreert deze overgang. Als het op grotere schaal wordt uitgezet in Azure, krijgt Microsoft meer controle over inferentieloads en kan het kosten, prestaties en energiegebruik beter afstemmen. Maar om succes te boeken, moeten leveranciers zoals SK hynix de groei ondersteunen met voldoende HBM en toekomstige generaties die grote modellen, langere contexten en meer verkeer aankunnen.

Het marktbeeld omvat ook financiële gevolgen. Een CapEx van 190 miljard dollar is enorm. Als een aanzienlijk deel hiervan wordt aangedreven door inflatie in componentprijzen, moeten investeerders onderscheiden tussen daadwerkelijke capaciteitstoename en prijsstijgingen van bestaande onderdelen. Geheugen wordt daardoor niet alleen een technische component, maar een strategische factor in de winstgevendheid van AI.

Voor SK hynix biedt dit kansen, maar ook risico’s. Het bedrijf moet de productie opschalen, kwaliteit waarborgen, prijscycli managen en niet te afhankelijk worden van enkele grote klanten. De AI-vraag is sterk, maar de geschiedenis leert dat geheugensectoren soms door moeilijke cycli gaan wanneer aanbod sneller groeit dan de vraag. De grote verandering nu is dat HBM meer is gekoppeld aan strategische langetermijncontracten en gereserveerde capaciteit, wat enige stabiliteit biedt.

Een stevige samenwerking met Microsoft kan een blauwdruk worden. Als Maia 200 blijft groeien en nieuwe generaties chips voor Azure nog steeds gebruik maken van SK hynix’s geavanceerde geheugen, wordt de Zuid-Koreaanse fabrikant veel meer dan alleen een componentenleverancier: het wordt onderdeel van de architectuur waarmee Microsoft haar volgende fase van AI wil vormgeven. Een fase waarin het ontwerp van de infrastructuur zelf centraal staat in plaats van enkel het inkopen van standaardversnellers.

Het AI-debat verschuift van modellen en GPU’s naar strategische besprekingen over HBM, verpakkingen en lange-termijnvoorzieningen. Hier heeft SK hynix een grote rol te spelen.

Veelgestelde vragen

Wat is er bekend over SK hynix en Microsoft?

Zuiderse media en TrendForce berichten dat Kwak Noh-Jung, CEO van SK hynix, gepland staat om Bill Gates en Satya Nadella te ontmoeten tijdens de Microsoft CEO Summit 2026 in Redmond.

Waarom is SK hynix belangrijk voor Microsoft?

Omdat Microsoft high-performance geheugen nodig heeft voor haar AI-infrastructuur. SK hynix levert DRAM, NAND en HBM3E, inclusief geheugen dat wordt gebruikt in Maia 200.

Wat is Maia 200?

Maia 200 is een eigen door Microsoft ontwikkelde AI-versneller gericht op inferentie voor Azure. Het is al in gebruik in de US Central-regio en wordt uitgebreid naar US West 3 near Phoenix.

Hoe belangrijk is HBM voor AI?

High-bandwidth memory (HBM) maakt het mogelijk om grote hoeveelheden data razendsnel te voeden aan AI-versnellers zoals GPU’s en ASICs, wat essentieel is voor datacenterprestaties en efficiëntie.

vía: trendforce

Scroll naar boven