OpenAI lijkt een van de meest ambitieuze infrastructurele zettingen tot nu toe in de strijd om kunstmatige intelligentie te plannen. Volgens informatie gepubliceerd door The Information en later opgepikt door andere financiële media, zou het bedrijf hebben ingestemd om meer dan 20 miljard dollar te investeren in drie jaar tijd in servers met Cerebras-chips. Deze operatie zou ook warrants of aandelenparticipatie omvatten, evenals bijkomende ondersteuning voor datacenters die op dit hardwareplatform afgestemd zijn. Noch OpenAI noch Cerebras hebben deze details momenteel officieel bevestigd.
Wat wel vaststaat, is dat beide bedrijven in januari een meerjarige alliantie aankondigden om 750 MW aan inferentie-capaciteit met zeer lage latency te implementeren met Cerebras’ wafer-scale systemen, een uitrol die vanaf 2026 gefaseerd van start gaat. OpenAI gaf toen aan dat deze capaciteit bedoeld is om de reactietijden van hun diensten te versnellen in scenario’s waarbij latency bijzonder belangrijk is, zoals programmeren, complexe zoekopdrachten, beelden en agenten.
Dit nuanceert het beeld omdat duidelijk wordt dat OpenAI niet probeert al haar hardwarepark volledig te vervangen door Cerebras, maar juist haar infrastructuur wil diversifiëren op basis van het soort workload. De AI-markt draait niet meer alleen om het trainen van enorme modellen, maar steeds meer om inference: snel en kostenefficiënt antwoorden kunnen bieden aan miljoenen gebruikers met interactiviteit en lage kosten. Daar probeert Cerebras zich sterker in te positioneren.
Een strategische zet die verder gaat dan alleen chips kopen
Als de operatie officieel wordt afgerond op de gespecificeerde voorwaarden, gaat het niet om een eenmalige aankoop van accelerators, maar om een diepgaandere infrastructuurallijt. Media in Angelsaksische landen wijzen op een combinatie van rekenkracht, financiering voor datacenters en mogelijk het verkrijgen van aandelen in Cerebras via warrants, met de optie om het belang te vergroten naarmate de totale uitgaven blijven toenemen. Maar op dit moment moeten deze details nog als niet-officieel bevestigd worden worden beschouwd.
Wat wel bevestigd is, is dat OpenAI strategisch haar rekenkracht wil uitbreiden. In maart sloot het bedrijf een financieringsronde van 122 miljard dollar in toegezegd kapitaal, met een post-money waardering van 852 miljard. OpenAI gaf expliciet aan dat dit geld bedoeld is om ‘de volgende fase’ van haar AI-infrastructuur te versnellen.
In dat licht biedt Cerebras een niche-oplossing binnen een steeds meer gediversifieerde hardware-portfolio. Het lijkt geen strategie te zijn om universeel andere fabrikanten te vervangen, maar eerder om een specifieke laag te versterken: snelle inferentie met lage latency.
Waarom Cerebras een interessante speler is geworden
Cerebras verwierf bekendheid doordat het een van de meest gevestigde conventies in de industrie tart: in plaats van kleine chips te maken en te schalen met grote clusters, investeerde het in processoren op wafer-level. Volgens de eigen claims meet de WSE-3 46.225 mm², bevat 4 biljoen transistors, 125 petaflops aan AI-rekenkracht en 900.000 geoptimaliseerde cores. Cerebras presenteert deze chip als de grootste AI-chip ooit gemaakt.
Naast de visuele impact van deze cijfers ligt de kern in de inferentie. Het bedrijf benadrukt dat haar architectuur knelpunten in GPU-systemen vermindert en zeer snelle realtime reacties mogelijk maakt. Deze belofte maakt het aantrekkelijk voor aanbieders die snelle conversational experiences, codegeneratie en andere workloads zoeken waarbij elke milliseconde telt.
Het is geen toeval dat ook AWS deze technologie wil omarmen. In maart maakten Amazon en Cerebras een samenwerking bekend om CS-3 systemen in AWS datacenters te plaatsen en aan te bieden via Amazon Bedrock. De gecombineerde architectuur verdeelt de workload tussen AWS Trainium voor de pre-fill-fase en Cerebras CS-3 voor de decode-fase, precies dezelfde functionele scheiding die momenteel in moderne inferentie wordt toegepast.
De AI-oorlog verschuift van training naar inferentie
De afgelopen twee jaar werd het verhaal in de sector vooral gedomineerd door het trainen van foundation-modellen en de massale inzet van GPUs. Maar de komende strijd verschuift naar het sneller kunnen bedienen van deze modellen, met lagere latency, betere kostenefficiëntie en meer schaalbaarheid.
Deze verschuiving in focus komt Cerebras goed uit. Het bedrijf concurreert niet zozeer om de universele standaard voor training te worden, maar biedt wel degelijk zeer gerichte voordelen op het gebied van inferentie. OpenAI leek dit al te onderkennen door haar samenwerking met Cerebras te rechtvaardigen: niet slechts qua rekenkracht, maar ook in responstijden en gebruikerservaring.
Mocht OpenAI haar relatie met Cerebras daadwerkelijk uitbreiden tot de omvang die nu geruchtmakend wordt, dan is de boodschap duidelijk: de infrastructuur van de toekomst voor AI zal niet meer gebaseerd zijn op één enkele chipfamilie of architectuur. In plaats daarvan wordt het een mix van gespecialiseerde componenten, afgestemd op verschillende taken: training, massale inferentie, lage-latency inferentie, agentschappen, multimodaliteit of zakelijke diensten.
Een belangrijke stap voor Cerebras zelf
Voor Cerebras zou deze operatie van groot strategisch belang zijn. Het bedrijf heeft haar beursgang in de VS opnieuw in beweging gezet en het feit dat een klant als OpenAI met miljardenverplichtingen gekoppeld is aan concrete deployments, versterkt haar marktpositie. Financiële media koppelen deze alliantie al aan een hernieuwde poging van Cerebras om naar de beurs te gaan.
Het onderstreept ook een perceptie die tot voor kort nog als ver weg leek: dat het niet meer volstaat ‘de alternatief voor NVIDIA’ te zijn, maar dat het belangrijk wordt om de juiste partij te zijn voor een specifiek deel van de AI-stack. Cerebras speelt hiermee een strategisch spel om dat gat te vullen.
Veelgestelde vragen
Heeft OpenAI officieel bevestigd dat het meer dan 20 miljard dollar in Cerebras investeert?
Nee. Wat officieel is, is de alliantie die in januari werd aangekondigd voor het inzetten van 750 MW inferentie-capaciteit. Details over een operatie van meer dan 20 miljard dollar, participaties en aanvullende ondersteuning voor datacenters, komen uit media zoals The Information. Deze zijn niet door OpenAI of Cerebras bevestigd.
Wat maakt Cerebras anders dan andere hardwarefabrikanten voor AI?
De belangrijkste onderscheidende factor is de wafer-scale architectuur. De WSE-3 beslaat een volledige wafer, bevat 900.000 cores voor AI, 4 biljoen transistors en kan 125 petaflops leveren, volgens de eigen gegevens.
Waarom zou OpenAI in dit hardware investeren?
Omdat Cerebras zich specifiek richt op snelle, lage-latency inferentie, cruciaal voor conversational AI, agents, real-time codegeneratie en beeldverwerking. Dit vormt een aanvulling op andere infrastructuurlagen die meer gericht zijn op training.
Hoe verhoudt dit alles zich tot de recente financiering van OpenAI?
OpenAI kondigde in maart een investeringsronde aan van 122 miljard dollar in toegezegd kapitaal om haar volgende AI-infrastructuurfase te versnellen. Deze financiële capaciteit biedt context voor grootschalige infrastructuurafspraken zoals de vermeende samenwerking met Cerebras.
