Mark Zuckerberg kondigt nieuwe generatie versnelde datacenters voor kunstmatige intelligentie aan
Meta is haar technologische infrastructuur grondig aan het herontwerpen om de volgende golf van kunstmatige intelligentie (AI) te ondersteunen. Mark Zuckerberg heeft aangekondigd dat het bedrijf gigantische computerc clustering aan het bouwen is die in staat zijn om werkbelastingen voor training en inferentie op een ongekende schaal te verwerken. Onder deze projecten steekt het ambitieuze ‘Hyperion’ er met zijn verwachte energieverbruik van 5 gigawatt (GW) bovenuit, wat het positioneert als een van de grootste datacenters ter wereld, vergelijkbaar met een aanzienlijk deel van Manhattan.
Datacenters in tenten: snelheid boven traditie
Meta hanteert een disruptieve aanpak bij de bouw van haar nieuwe datacenters, geïnspireerd door strategieën van bedrijven zoals xAI van Elon Musk. In plaats van traditionele structuren, kiest Meta voor ‘tented’ datacenters — gebouwd onder tentachtige structuren die ultraversnelde en kosteneffectieve constructie mogelijk maken, zonder veelvoorkomende redundantie zoals dieselgeneratoren voor noodstroom.
Volgens een rapport van SemiAnalysis zullen deze centra gebruik maken van prefab-modules voor energie en koeling, wat de uitrol aanzienlijk versnelt. Elk datacenter zal zijn eigen onderstations, intelligente laadbeheersystemen en zelfs on-site gasgeneratoren hebben. In Ohio bouwt Meta momenteel twee centrales van 200 MW.
Het plan van Meta: de ruggengraat van AI worden
Hoewel de Llama-taalmodellen van Meta nog niet de wereldwijde aandacht hebben getrokken zoals die van OpenAI of Anthropic, lijkt het bedrijf een andere strategie te hebben: de leidende leverancier van rekenkracht voor de AI-industrie worden.
Zuckerberg heeft het duidelijk gesteld: “Meta Superintelligence Labs zal de hoogste computatieniveaus per onderzoeker in de sector hebben.” Deze strategie doet denken aan de aanpak van bedrijven zoals Amazon of Groq: als je niet vooroploopt met de modellen, leid dan met de infrastructuur die hen traint.
Prometheus en Hyperion: gigantische clusters
Het eerste datacenter op gigawatt-schaal, genaamd Prometheus, zal in 2026 operationeel zijn. Maar de echte ster is Hyperion, een cluster dat enkele jaren nodig zal hebben om zijn volledige omvang te bereiken, met een energieverbruik dat kan oplopen tot 5.000 megawatt. Ter vergelijking: dit staat gelijk aan het verbruik van meer dan 4 miljoen Europese huishoudens of 80% van de energiebehoefte van Madrid op een gemiddelde dag.
En Hyperion zal niet alleen zijn; Meta werkt al aan meerdere soortgelijke langlopende projecten, allemaal vanaf de basis ontworpen om te functioneren met intensieve AI-lasten, wat radicale optimalisaties in koeling, elektrische distributie en verwerkingssnelheid inhoudt.
Rentabiliteit? Nog niet, maar de trein is al vertrokken
Net als NVIDIA, dat wereldwijde investeringen van meer dan 500 miljard dollar in AI-datacenters stimuleert, doet Meta mee aan deze race zonder terug te kijken, zelfs als er nog geen winstgevend businessmodel in dit domein bestaat.
De visie is helder: wie de infrastructuur controleert, controleert de toekomst van kunstmatige intelligentie. En Meta lijkt vastbesloten om voorop te blijven lopen.
De grote vraag is of deze ongekende uitrol Meta zal positioneren als een krachtpatser in het AI-tijdperk, of dat, zoals in het verleden, het te vroeg inzetten van middelen haar zou kunnen opbreken. Voor nu is het duidelijk dat het bedrijf de strijd tegen de tijd heeft verklaard… en zijn wapens bouwt onder tenten.
— via tomshardware