NVIDIA richt zich op de ruimte om de energieknelpunten van AI te verlichten

De komende grote frontier voor AI-datacenters ligt mogelijk niet in een industrieterrein, naast een elektriciteitsstation of bij een waterzuiveringsinstallatie. Het kan zich in de ruimte bevinden. Het klinkt als sciencefiction, maar het is al op de agenda gezet door NVIDIA, Google, SpaceX, Starcloud en diverse ruimtevaartbedrijven die onderzoeken hoe delen van AI-berekeningen buitenaards kunnen plaatsvinden.

De kern is eenvoudig te formuleren, maar uiterst uitdagend uit te voeren: wanneer aardse datacenters tegen limieten aanlopen zoals energie, grond, koeling, vergunningen en maatschappelijke weerstand, biedt de ruimte bijna onafgebroken zonlicht en een locatie waar warmte door straling kan worden afgevoerd. Op papier zou dit grote AI-clusters mogelijk maken zonder directe concurrentie met lokale elektriciteitsnetten of water voor koeling te gebruiken. In de praktijk blijven er echter grote technische, economische en regelgevingstechnische belemmeringen bestaan.

De laatste ontwikkeling die het debat opnieuw heeft aangewakkerd, is NVIDIA’s ruimtelijk strategisch initiatief. Het bedrijf heeft platformen voor ruimte-berekeningen gepresenteerd, waaronder de Space-1 Vera Rubin-module, ontworpen voor AI-ladingen in satellieten, geospatiale analyses, autonome operaties en toekomstige orbitaledata-centers. Volgens NVIDIA kan deze module tot 25 keer meer AI-rekenkracht leveren dan een H100 voor ruimteladingen, hoewel de commerciële beschikbaarheid nog later zal plaatsvinden.

Van beeldverwerking op satellieten tot denken aan orbitale datacenters

Rekenkracht in de ruimte is niet nieuw. Decennialang verwerken satellieten data aan boord voor communicatie, aardobservatie, navigatie of defensie. Wat nieuw is, is de ambitie om hardware op dat niveau in de baan te brengen en niet alleen te gebruiken voor het reduceren van data vóór verzending naar de aarde, maar om veel veeleisendere AI-taken uit te voeren.

NVIDIA heeft samenwerkingen aangekondigd met Aetherflux, Axiom Space, Kepler Communications, Planet Labs, Sophia Space en Starcloud om AI-versnelling in ruimte-missies en gekoppelde grondsystemen mogelijk te maken. Soms gaat het om het realtime verwerken van sensor-data, in andere gevallen is de visie nog verder: het bouwen van rekeninfrastructuur in de ruimte voor het trainen en uitvoeren van geavanceerde modellen, zonder volledig afhankelijk te zijn van aardse datacenters.

Starcloud is hier het meest opvallende voorbeeld. De startup, gesteund door het NVIDIA Inception-programma, lanceerde in november 2025 de Starcloud-1 satelliet met een NVIDIA H100 GPU aan boord. Volgens het bedrijf voerde het systeem modellen uit in de ruimte en kon het nanoGPT trainen, een symbolische demonstratie die bewijst dat high-performance hardware buiten de aarde kan functioneren en overleven.

De lange-termijnvisie van Starcloud is zelfs nog ambitieuzer: een orbital datacenter van 5 GW, aangedreven door grote zonnecollectoren, met een structuur van ongeveer 4 kilometer aan zijde. Ze stellen dat zonne-energie in de ruimte constanter kan zijn dan op aarde en dat de energiekosten veel lager kunnen uitpakken dan voor een vergelijkbaar systeem op aarde. Het blijft echter een potentieel krachtig, maar nog zeer toekomstgericht plan.

Ook de concurrentie kijkt omhoog

NVIDIA staat niet alleen in deze race. Google presenteerde Project Suncatcher, een onderzoeksinitiatief om constellaties van satellieten met TPUs (Tensor Processing Units), gevoed door zonne-energie en verbonden via optische links, te bestuderen. Het bedrijf plant de lancering van twee proef-satellieten samen met Planet Labs begin 2027, om hardware in orbit te testen en technische hypotheses te valideren.

Het Google-project is gebaseerd op een vergelijkbare gedachte: in bepaalde banen kunnen zonnepanelen gedurende langere periodes energie opwekken dan op aarde, met minder onderbrekingen. Google heeft ook de weerstand van haar TPUs tegen straling getest, maar erkent dat nog veel open vragen bestaan op het gebied van thermische beheersing, betrouwbaarheid, communicatie, orbitale dynamiek en lanceerkosten.

Ook SpaceX speelt een belangrijke rol. Het bedrijf van Elon Musk heeft aangekondigd dat het toegang biedt tot Anthropic’s supercomputer Colossus 1, en dat daar interesse is in samenwerking voor orbitalere rekencapaci­teiten van meerdere gigavats. Reuters meldde bovendien gesprekken tussen Google en SpaceX over toekomstige lanceringen gerelateerd aan Project Suncatcher.

Dit alles vormt een nieuw front in de strijd om AI-infrastructuur. Tot nu toe draaide dat vooral om GPU’s, ASICs, TPUs, netwerken, HBM, datacenters, nucleaire energie, contracten met nutsbedrijven en grootschalige capaciteit. Nu speelt ook de vraag: wie kan en mag buiten de aarde datacenters lanceren, onderhouden en verbinden?

De grote uitdaging: niet enkel lanceren van chips

Het is belangrijk de verhalen niet te overdrijven. De ruimte biedt duidelijke voordelen, maar is geen gratis datacenter met uitzicht op de aarde. Koeling werkt er bijvoorbeeld heel anders: in de vacuum-omgeving is geen lucht die warmte kan afvoeren door convectie. Warmte moet worden uitgestraald via speciale oppervlakken en materialen, en dat vergt zeer specifieke thermische ontwerptechnieken. Hoe krachtiger het cluster, des te complexer de warmteafvoer.

Reparatie is een andere grote uitdaging. In een aardse datacenter kan een technicus hardware vervangen, een voedingsunit verwisselen of verbindingen controleren. In de ruimte is dat drastisch moeilijker en kostbaarder. Straling kan componenten degraderen, micrometeoroïde-botsingen vormen een risico en maintenance niet snel en eenvoudig gedaan kunnen worden. Logistiek voor ruimteonderhoud is nog in ontwikkeling.

Daarnaast is connectiviteit een grote challenge. Wil je een orbital datacenter nuttig maken voor aardse toepassingen, dan moet er enorme datastromen tussen satellieten en grondstations kunnen worden verplaatst. Optische communicatie kan veel bandbreedte bieden, maar het onderhouden van een netwerk van satellieten met lage latency en stabiele capaciteit is intensief. Voor toepassingen zoals batch-training van AI of dataverwerking in de ruimte kan latency acceptabel zijn, maar voor interactieve diensten moeten kosten en architectuur nog bewijzen kunnen leveren.

Ook het milieu-impact van lanceringen en de mogelijke proliferatie van constellaties mogen niet worden onderschat. Het vervoeren van duizenden tonnen hardware naar orbit vereist veel raketbrandstof, materialen en productie. Daarnaast zorgen megaconstellaties voor verstoring van het uitzicht en verstopping van de baan, wat al jaren door astronomen wordt aangehaald. Het verplaatsen van datacenters naar de ruimte ontlast de netinfrastructuur op aarde, maar verschuift het probleem naar een kwetsbare en beperkte omgeving.

Een teken van de werkelijke druk op AI

De belangrijkste boodschap is waarschijnlijk niet dat datacenters massaal naar de ruimte verhuizen binnen enkele jaren. De achtergrondsignaal is dat de AI-industrie een schaal bereikt waarin de energieconsumptie onhoudbaar wordt zonder extreme oplossingen. Grote bedrijven sluiten nucleaire energie-overeenkomsten, Amazon en Google onderhandelen over lange termijn energiecontracten, Oracle en OpenAI plannen enorme campussen, en nu onderzoeken NVIDIA, Starcloud, Google en SpaceX de ruimte als toekomstige optie.

Voor infrastructuurleveranciers is de boodschap duidelijk: de bottleneck ligt niet meer enkel in chipproductie. Het gaat ook om het voeden, koelen, verbinden en verkrijgen van vergunningen voor installatie. Daarom krijgt ruimtecomputing steeds meer aandacht in presentaties, strategiedocumenten en pilots. Niet als directe vervanger van aardse datacenters, maar als een mogelijke uitbreiding voor specifieke workloads.

Op korte termijn zien we waarschijnlijk meer AI op satellieten voor beeldanalyse, automatische navigatie, defensie, communicatie en verwerking van ruimtegegevens. Dit is operationeel heel logisch: als een satelliet data kan analyseren zonder alles te verzenden, vermindert dat de datastroom en verbetert de snelheid. Grootschalige orbitaledata-centers van meerdere gigavats blijven nog meer in de sfeer van futuristische ambities.

NVIDIA, Google, Starcloud en SpaceX duwen die grens omdat de markt waarde hecht aan het controleren van de infrastructuur. Als AI vraagt om steeds meer rekenkracht, ligt de voorsprong niet alleen in het beste model, maar ook in de toegang tot energie, chips, netwerken en locaties. Het ruimte-aspect lost niet alle problemen op, maar verschuift ze en introduceert nieuwe uitdagingen.

De vraag is niet meer of een krachtige GPU in orbit geplaatst kan worden; dat wordt al getest. Het gaat erom of die hardware kan uitgroeien tot een betrouwbare, kosteneffectieve, onderhoudbare infrastructuur die door de samenleving wordt geaccepteerd. Tot dat moment blijven ruimte-datacenters een mengsel van technische uitdaging, zakelijk ambitie en futuristische visie.

Veelgestelde vragen

Wat is een orbitale datacenter?

Een datacenter in de ruimte, meestal bestaande uit satellieten of structuren in een baan, ontworpen voor data-processing en AI-taken, gevoed door zonne-energie en verbonden via optische of radiofrequente communicatie.

Waarom willen bedrijven AI in de ruimte brengen?

Omdat aardse datacenters veel elektriciteit verbruiken, koeling nodig hebben en afhankelijk zijn van kwetsbare netwerken. In de ruimte is er meer onafgebroken zonne-energie, ondanks de technische uitdagingen.

Wat heeft NVIDIA gepresenteerd voor ruimte-berekeningen?

Platforms zoals Space-1 Vera Rubin, IGX Thor en Jetson Orin voor AI-inzet in satellieten, geospatiale analyses, autonome operaties en toekomstige orbitaledata-centers.

Zullen we binnenkort grote datacenters in de ruimte zien?

Niet op korte termijn. Er worden proeven uitgevoerd en pilots gepland, maar grootschalige bouw vereist het oplossen van problemen op het gebied van lanceringen, onderhoud, koeling, stralingsbestendigheid, communicatie en kosten.

vía: wccftech

Scroll naar boven