Meta heeft aangekondigd dat haar ambitie op het gebied van kunstmatige intelligentie niet langer wordt beheerd als “een gewoon project” binnen de infrastructuurafdeling. Het bedrijf heeft een nieuwe divisie opgericht, Meta Compute, die verantwoordelijk wordt voor de volgende fase van haar datacenter-uitbreiding: een plan dat, volgens uitspraken van Mark Zuckerberg, gericht is op het bouwen van tientallen gigawatt gedurende dit decennium en streeft naar honderden gigawatt of meer op de lange termijn. Als deze route wordt gerealiseerd, zou Meta tot de meest energie-intensieve en rekenkracht-rijke actoren ter wereld behoren.
De nieuwe eenheid heeft een duidelijk doel: het omschrijven van capaciteitsopbouw als een eigen bedrijfskundige discipline, met teams die zich richten op lange-termijn planning, leveranciersovereenkomsten, financieringsmodellen en samenwerking met overheden. De AI-infrastructuur — en niet alleen het model — wordt een strategisch concurrentievoordeel.
Wat is Meta Compute en waarom is het belangrijk?
Meta Compute is de meest voor de hand liggende indicatie dat het bedrijf twee eerder vermengde werelden aan het scheiden is: aan de ene kant de race om modellen en talent; aan de andere kant de race om grond, energie, beton, netwerken en koeling.
De divisie wordt mede geleid door Santosh Janardhan, verantwoordelijk voor wereldwijde infrastructuur bij Meta, en Daniel Gross, die zich zal richten op capaciteitsplanning, partnerschappen met leveranciers en de economische logica van de uitrol. Daarnaast heeft het bedrijf Dina Powell McCormick aangetrokken om te werken aan overheids- en soevereine overeenkomsten voor uitbating, investeringen en financiering van infrastructuurprojecten.
Deze beweging komt op het moment dat grote laboratoria en technologieplatforms een belangrijke realiteit onder ogen zien: het kopen van GPU’s is niet meer genoeg. Schaalbaarheid hangt af van vergunningen, beschikbare elektriciteitsvoorziening, levertijden, supply chains en, steeds meer, de maatschappelijke acceptatie van datacenters.
Context: meer capaciteit, meer contracten en grotere energietoevoer-afhankelijkheid
De aankondiging volgt een patroon dat in de sector herhaald wordt: capaciteit veiligstellen tegen elke prijs en met elke formule. De afgelopen maanden zijn er een groeiend aantal “compute”-contracten en infrastructuurafspraken met derden gesloten, terwijl grote technologiegroepen hun eigen datacampus-projecten versnellen.
Voor Meta laten verschillende rapporten een beeld zien van overeenkomsten voor het veiligstellen van capaciteit buiten de eigen infrastructuur — van gespecialiseerde GPU-cloudaanbieders tot grote platformen — naast onderhandelingen met andere marktdeelnemers om levering en tijdschema’s te waarborgen. Tegelijkertijd onderzoekt het bedrijf financieringsmodellen voor grote complexen: projecten waarbij de kosten niet meer in tientallen miljoenen worden uitgedrukt, maar in milliarden.
Snelle samenvatting: kernonderdelen van Meta’s “opschalingsplan” (volgens openbare informatie en rapportages)
| Aspect | Wat wordt er ontwikkeld | Waarom is het relevant |
|---|---|---|
| Organisatie | Oprichting van Meta Compute en nieuwe verantwoordelijken | Infrastructuur wordt een strategisch onderdeel van de bedrijfsstrategie, niet slechts technische uitvoering |
| Capaciteit | Doel van tientallen GW in dit decennium | Schalingsniveau vergelijkbaar met grote nutsbedrijven, met reële impact op de energiemarkten |
| Financiering | JV-structuren en externe kapitaalbronnen voor megaprojecten | Vermindert de druk op de kaspositie, maar brengt ook verplichtingen en afhankelijkheden met zich mee |
| Externe compute | Contracten met cloud- en GPU-leveranciers | Versnelt uitrol terwijl eigen campus-capaciteit wordt gebouwd |
| Energie | Overeenkomsten en verkenning van vaste bronnen (inclusief kernenergie) | Elektriciteitsvoorziening is de belangrijkste bottleneck |
Het grote risico: snel bouwen zonder het vertrouwen van de omgeving te schaden
Deze massale uitbreiding brengt een keerzijde met zich mee: dat datacenters niet langer worden gezien als “onzichtbare infrastructuur”. Op veel terreinen is het publieke debat geformaliseerd door zorgen over energieverbruik, watergebruik, stedenbouwkundige impact en druk op lokale netwerken. En naarmate de projecten groeien — van honderden megawatt tot gigawatt — wordt elke vergunning politicser.
Meta lijkt dit scenario te anticiperen door profielen in te schakelen die gericht zijn op institutionele relaties, overheidsafspraken en lange-termijnplanning. Met andere woorden: om datacenters op gigawatt-schaal op te zetten, is niet alleen engineering nodig; diplomacy, geavanceerde financiering en een verhaal over lokale voordelen zijn essentieel.
Wat betekent “tens of gigawatts”: de IA wordt een industriële logica
De tonnage in gigawatt markeert een andere categorie. Een “groot” datacenter van vroeger had doorgaans decennia in megawatt. AI dwingt tot campusontwikkelingen die gemeten worden in honderden megawatt, en nu wordt er ook openlijk over gigawatt gesproken.
Dit leidt tot ingrijpende transformaties:
- Elektrische planning: stations, lijnen, lange-termijn contracten, soms eigen generatie
- Supply chain: van transformatoren tot koelsystemen en netwerkapparatuur
- Economisch model: meer gestructureerde financiering, pre-sales van capaciteit en lange-termijn overeenkomsten
- Governance: vergunningen, milieuwetgeving, transparantie en lokale participatie
Meta Compute lijkt daarmee minder een interne reorganisatie dan een reactie op een feit: dat AI dat het gedrag van techbedrijven op industriële schaal dwingt te opereren als industrialisatie van infrastructuur.
Veelgestelde vragen
Wat is Meta Compute en hoe verschilt het van het klassieke infrastructurele team van Meta?
Meta Compute is een nieuwe divisie opgericht om de grootschalige uitrol van datacenters voor AI te coördineren, met nadruk op capaciteitsplanning, leverancierspartnerschappen, financiering en strategie van deployment.
Wat betekent het bouwen van “gigawatt-schaal” datacenters?
Het betekent dat projecten niet langer enkele tientallen MW zijn, maar dat het omcampussen gaat die even krachtig zijn als een middelgrote stad. Dit beïnvloedt vergunningen, het elektriciteitsnet, energieovereenkomsten en bouwtijden.
Waarom sluit Meta energieovereenkomsten (inclusief kernenergie)?
Omdat de bottleneck niet meer alleen hardware is: het gaat om de beschikbaarheid van stabiele, betrouwbare en grote energiebronnen om duizenden GPU’s te voeden, zeker bij snelle groei.
Welke risico’s brengt deze uitbreiding van datacenters met zich mee voor lokale gemeenschappen?
De belangrijkste punten van frictie zijn vaak de netcapaciteit, energieverbruik, water voor koeling, stedenbouwkundige impact en de perceptie van lokale voordelen versus sociale kosten.
