Musk schudt de AI-wereld op met een sciencefiction-idee: datacenters in orbit… en een nieuwe knelpunt

Elon Musk stelt opnieuw een voorstel voor dat lijkt te ontsnappen aan de grenzen van een roman: het brengen van een deel van de Infrastructuur voor Kunstmatige Intelligentie (AI) naar de ruimte. Niet als een metafoor, maar als een concreet plan dat volgens hem binnen enkele jaren “economisch haalbaar” zou worden. De reden die hij aandraagt is geen technologische, maar elektrische: de huidige uitbreiding van AI wordt tegengehouden door een zeer aardse limiet — de beschikbare energie en de werkelijke capaciteit van de netwerken om nieuwe datacenters van stroom te voorzien.

Het idee heeft de afgelopen dagen aan terrein gewonnen via twee kanalen. Aan de ene kant verdedigde Musk in een uitgebreid interview dat de “beperkingsfactor” voor de industrie aan het veranderen is: eerst wordt energie het knelpunt, en zodra dat is overwonnen, zullen chips dat worden. Aan de andere kant heeft SpaceX bij de Amerikaanse FCC aangevraagd om toestemming te krijgen voor het uitrollen van een gigantisch cluster satellieten die functioneren als “zonnedatacenters” in een baan om de aarde, met een potentieel van tot wel 1.000.000 eenheden op papier.

In dat interview schetst Musk een agressief toekomstbeeld: “over 36 maanden, maar waarschijnlijk dichter bij 30”, zou de goedkoopste plek voor AI-implementatie in de ruimte liggen. Hij redeneert dat de aarde te veel hinder ondervindt om de groei bij te houden die de modellen eisen: vergunningen, netaansluitingen, industriële knelpunten en een elektriciteitssysteem dat niet snel kan opschalen. Hij vat het samen met een krachtige metafoor: Amerika verbruikt gemiddeld ongeveer 0,5 terawatt; spreken over 1 terawatt zou dat verdubbelen. In dat scenario vraagt hij zich impliciet af: hoeveel centrales en datacenters zouden gebouwd moeten worden om deze groei te ondersteunen?

Het argument van Musk rust op een debat dat steeds minder theoretisch is. De Internationale Energieagentschap (IEA) schat dat het wereldwijde elektriciteitsverbruik van datacenters in 2030 mogelijk meer dan verdubbelt tot ongeveer 945 TWh, met een groei van bijna 15% per jaar tussen 2024 en 2030, grotendeels gedreven door AI. Met andere woorden: zelfs als de industrie meer accelerators en servers produceert, wordt het aanzetten en onderhouden ervan een nieuw probleem.


Elon Musk – "Over 36 maanden wordt de goedkoopste plek voor AI in de ruimte”

Daar komt het idee van de “orbitale escape” om de hoek kijken. Musk beweert dat in de ruimte de energievoorziening eenvoudiger zou zijn dankzij bijna constante zonne-energie, zonder nacht of weersinvloeden en met minder afhankelijkheid van land, water en het elektriciteitsnet. Maar dit optimistische beeld wordt geconfronteerd met een grote uitdaging: de hitte.

Op aarde wordt datacenters warmte afgevoerd via lucht, water en grote koelsystemen gebaseerd op convectie. In het vacuum bestaat geen convectie: warmte kan alleen via straling worden afgevoerd, wat grote, zware en dure radiatoren vereist. Het nieuwsagentschap Associated Press meldde dat experts sceptisch zijn over deze aanpak, omdat chips zonder adequate koeling in de ruimte snel kunnen oververhitten — precies in een omgeving die paradoxaal genoeg ‘koud’ lijkt. Musk probeert die kritiek vooraf te tackelen met een concrete oplossing: het ontwerpen van chips die beter bestand zijn tegen straling en op hogere temperaturen kunnen werken. Hij beweert zelfs dat bij grote neurale netwerken de “bits flips” door straling minder problematisch zouden zijn dan bij traditionele heuristische programma’s, vanwege de statistische veerkracht van modellen met biljoenen parameters. Maar, hoe innovatief ook, het basisprobleem blijft bestaan: de hitte moet ergens vandaan worden gehaald en afgevoerd.

De discussie is niet langer puur conceptueel. Reuters meldde dat AWS-CEO Matt Garman de opwinding over orbital datacenters temperde door te stellen dat ze “nog heel ver weg” zijn van economische realiteit, vanwege logistieke problemen en hoge kosten van lancering. Eenzelfde bericht meldde dat andere actoren ideeën onderzoeken, wat aangeeft dat de sector de problemen op steeds extremere manieren onderzoekt.

Daarnaast zijn er al signalen van “eerste experimenten” die de theorie ondersteunen: Starcloud publiceerde de lancering van een NVIDIA H100 GPU in baan om de aarde als onderdeel van een satelliet (Starcloud-1), en beweert hiermee een belangrijke mijlpaal te hebben bereikt in high-performance computing buiten de aardse grenzen. De sprong van deze demonstratie — hoe relevant ook — naar de daadwerkelijke bouw van honderden gigavolt-infrastructuren in de ruimte zoals Musk voor ogen heeft, is enorm. Maar het toont wel dat de industrie het terrein begint te testen.

Waar Musk zich het meest scherp uitdrukt, is bij het beschrijven van het “volgende obstakel” dat volgt zodra de energielimiet is doorbroken: de levering van halfgeleiders. In het interview legt hij uit dat Tesla capaciteit reserveert bij meerdere fabrikanten — TSMC in Taiwan en Arizona, Samsung in Korea en Texas — en benadrukt dat het opzetten van een fabrieken en het bereiken van grootschalige productie met goede rendementen ongeveer vijf jaar kost. Daarom benadrukt hij het belang van een “TeraFab”: een megafabriek die niet alleen chips voor logica produceert, maar ook geheugen en geavanceerde verpakkingen, met een ambitieniveau van meer dan een miljoen wafers per maand.

Deze focus op de toeleveringsketen is geen toeval. Musk probeert Tesla te positioneren als meer dan een autofabrikant: zijn ambitie voor humanoïden zoals Optimus hangt af van componenten, actuatoren en industriële kennis die momenteel vooral in Azië geconcentreerd zijn. Een recent artikel beschreef hoe Chinese leveranciers steeds meer onderdeel worden van het ecosysteem voor robotcomponenten, een indicatie van de onderliggende spanning in deze nieuwe cyclus: zelfs degenen die willen ‘re-industrialiseren’ in eigen land, hebben een wereldwijd netwerk nodig om de toekomst vorm te geven.

Samengevat laat het debat over orbitale datacenters zien hoe de strijd om AI niet meer uitsluitend wordt beslist door modellen en algoritmen, maar ook door energie, koeling, vergunningen, ruimtevaarten en chipfabrieken. Wat Musk op tafel legt — met zijn gebruikelijke mix van provocatie en ambitie — is een ongemakkelijke vraag voor de hele industrie: wat als de echte limiet van AI niet de berekening is, maar de capaciteit om het in stand te houden?

Veelgestelde vragen

Wat is een “orbitale datacenter” en hoe verschilt het van een gewone satelliet?
Een orbitale datacenter zou een platform in de ruimte zijn dat is ontworpen om data te verwerken en op te slaan (inclusief AI), met behulp van zonne-energie en communicatie met de aarde. In tegenstelling tot conventionele satellieten ligt de nadruk hier op rekenkracht en warmteafvoer.

Waarom vormt de energievoorziening de grootste belemmering voor AI?
Omdat de vraag naar datacenters harder groeit dan de uitbreiding van netwerken en energieopwekking. Daarnaast vereist het aansluiten van nieuwe datacenters meestal bouwprojecten, vergunningen en lange doorlooptijden die niet stroken met de snelheid van investeringen in AI.

Wat is de grootste technische uitdaging voor het uitvoeren van AI in de ruimte?
De koeling. In het vacuum is er geen lucht of water om warmte door convectie af te voeren; die moet via straling worden afgevoerd, wat grote, massieve en dure radiatoren vereist.

Wat is een “TeraFab” en waarom noemt Musk dat als oplossing?
Het is de naam voor een megafabriek die chips op ongekende schaal produceert, inclusief logica, geheugen en complexe verpakkingen. Het doel is om de bottleneck in de halfgeleiderproductie te doorbreken, vooral als de vraag naar acceleratoren blijft toenemen.

Scroll naar boven