De wedloop om de infrastructuur voor Artificial Intelligence wordt niet langer uitsluitend uitgevochten op industrieterreinen, in woestijnen met elektrische onderstations of op grote “hyperscale” campussen. De afgelopen weken is een nieuw concept weer in de spotlights komen te staan: rekenkracht de ruimte in brengen om AI-inferentie in de baan om de aarde uit te voeren. In dit verband heeft het Indiase ruimtevaarttechnologiebedrijf Agnikul Cosmos en de AI-cloudprovider NeevCloud een overeenkomst ondertekend om een ‘data center’-module in een baan om de aarde te lanceren vóór het einde van 2026. Ze maken gebruik van een platform dat een cruciaal onderdeel van de raket benut: de bovenste trap.
Dit nieuws plaatst India in een gesprek dat tot nu toe meer futuristisch klonk dan praktisch, maar dat begint te evolueren met concrete plannen, presentaties aan regelgevende instanties en zakelijke overeenkomsten. Het kernidee: als AI steeds meer energie en silicium nodig heeft, kan een deel van deze vraag worden verschoven naar een orbitaal infrastructuur die door de zon wordt aangedreven, met rekenknooppunten dicht bij waar data wordt gegenereerd of vastgelegd (satellieten, sensoren, communicatielinks), en met beloftes van nieuwe modellen voor latentie, veiligheid en beschikbaarheid.
Een bovenste trap die niet wordt weggegooid, maar wordt ‘gerecycled’ als platform in de ruimte
Agnikul, opgericht in het ecosysteem van IIT Madras en bekend om haar 3D-geprinte raketonderdelen, introduceert een innovatieve invalshoek voor de traditionele lanceerlogica: in plaats van de bovenste trap na het vrijgeven van de lading te verwijderen, wil hun technologie dat deel van de raket ombouwen tot een functioneel actief object in de ruimte dat hardware en software kan huisvesten.
De CEO van Agnikul, Srinath Ravichandran, legt dit uit met een zin die de omslag in denkwijze illustreert: de bovenste trap “blijft actief en functioneel”, waardoor het een herbruikbare hulpbron wordt die computercapaciteiten en data kan bieden. Met andere woorden, het voertuig dat iets in een baan brengt, zou ook kunnen dienen als de ‘plek’ waar een deel van de infrastructuur verblijft.
Voor haar kant voegt NeevCloud een cloud- en AI-gerichte aanpak toe. Haar oprichter en CEO, Narendra Sen, schetst een ambitieuze visie: niet slechts een geïsoleerd datacenter, maar een nieuwe laag van orbital inference-infrastructuur. Termen als “orbital edge” en “space data centre modules” proberen het concept aan te laten sluiten bij de bekende taal van developers en architecten: edge computing, maar dan met het systeem letterlijk in lage omloopbaan (LEO).
Tijdschema: proefproject vóór eind 2026 en opschaling naar meer dan 600 knooppunten
Volgens informatie die is gedeeld door Indiase media uit de sector, omvat de overeenkomst een eerste proef die vóór eind 2026 gelanceerd moet worden. Indien de technische en operationele validatie succesvol is, is het plan ambitieus: binnen drie jaar na de proef meer dan 600 ‘Orbital Edge data centers’ te realiseren.
Dit getal onderstreept duidelijke intenties. Hoewel het ‘data center in de ruimte’ niet gelijk staat aan een vast landelijk centrum met duizenden racks, suggereert de geplande schaal een modulaire aanpak: vele kleine knooppunten, herhaalbaar, uitbreidbaar en verspreid, met opeenvolgende implementaties.
Waarom zou een ‘cloud’ in de ruimte nuttig kunnen zijn?
De meest genoemde use-case in de communicatie is real-time inferentie: het uitvoeren van modellen dicht bij de plek waar snelle beslissingen nodig zijn of waar data wordt gegenereerd die niet volledig naar beneden gehaald hoeft te worden. Industrieën zoals defensie en financiën worden hierbij vaak genoemd, vooral in de context van een argument dat in 2026 extra gewicht krijgt: soevereine controle over data en het verminderen van geopolitieke risico’s.
Het idee is niet helemaal nieuw in theorie, maar het krijgt nu voor het eerst een serieuze uitwerking in een commercieel ontwerp: rekenknooppunten in LEO die mogelijk inferentieverzoeken kunnen afhandelen, gegevens kunnen filteren of voorbewerken, en zo de behoefte aan grote datastromen naar aardse datacenters kunnen verminderen. Tegelijkertijd speelt de energieaspect een grote rol: in de ruimte is de zonnestraling consistenter dan op het oppervlak, waardoor het (minimaal op papier) mogelijk wordt om de energetische kosten van AI te heroverwegen.
De obstakels die de sector niet kan negeren
Het enthousiasme wordt gevangen gehouden door een reeks technische uitdagingen die elke systeembeheerder onmiddellijk zou herkennen: operaties.
Een ‘data center’ in de ruimte betekent omgaan met straling, componentdegradatie, thermisch beheer (in een vacuum geeft warmte afgeven anders dan in lucht; het vereist radiatoren en een doordacht ontwerp), beperkte fysieke onderhoudsmogelijkheden, vervangingsperioden afhankelijk van lanceringen, en een connectiviteitsketen die leunt op space-links en aardse stations. Op grote schaal komt daar nog regelgeving en orbital sustainability bij: ruimteverkeer, afval, internationale coördinatie.
Analisten in de datacenter-sector waarschuwen al dat, hoewel steeds meer bedrijven deze weg verkennen, het ‘groot’ laten werken van zulke systemen de echte uitdaging wordt. De inspanningen van Agnikul en NeevCloud worden dan ook gezien als een high-profile experiment: als de pilot echt waarde blijkt te bieden — en niet alleen een demo — dan zou het concept echt momentum kunnen krijgen.
Een snel ontwikkelende trend: van berichtgeving naar reguleringsvoorstellen
Het Indiase nieuws wordt versterkt door andere grote namen die vergelijkbare verhalen opvoeren. In de VS heeft SpaceX bij de FCC een voorstel ingediend voor een constellatie van maximaal 1.000.000 satellieten, gericht op “data centers” aangedreven door zonne-energie in orbit, een getal dat door analisten als onrealistisch wordt beschouwd in letterlijke zin, maar dat wel de strategische richting aangeeft. Parallel daaraan gebeurt er meer met Starcloud, dat een voorstel presenteert voor tot wel 88.000 satellieten, binnen een debat dat steeds meer lijkt op een nieuwe ‘wapenwedloop’ in het domein van orbital computing.
In dat speelveld positioneert India zich met een duidelijke voorsprong in narratief: niet alleen lancering, maar ook dienstverlening. Agnikul biedt niet alleen het ‘ruimtevaarttraject’ aan, maar ook een ‘thuis’ waar rekenbelasting kan worden opgeslagen, wat volgens het bedrijf de noodzaak vermindert dat klanten complete satellites ontwerpen en implementeren.
Wat ontwikkelaars en infrastructuurexperts moeten in de gaten houden
Voor de technische professionals zijn de meest relevante vragen mogelijk niet het verhaal, maar de implicaties ervan:
- Welke soorten workloads worden er daadwerkelijk op die knooppunten uitgevoerd? (lichte inferentie, streaming pipelines, filtering, compressie, gespecialiseerde modellen).
- Hoe worden ze uitgerold en geüpdatet? (inmutabele images, edge deployment, remote control, telemetry, rollback-mechanismen).
- Wat is de realistische SLA in een omgeving zonder fysieke interventie?
- Hoe worden die knooppunten geïntegreerd met terrestrische infrastructuur? (backhaul, stations, peering, end-to-end beveiliging).
In 2026 zijn dat nog voornamelijk vragen. Maar de signaalwaarde uit de markt is helder: de energiekosten van AI, de noodzaak van soevereiniteit en het zoeken naar nieuwe computervensters duwen bedrijven richting de ruimte als het volgende ‘rand’ van het systeem.
Veelgestelde vragen
Wat betekent precies “data center in space” in dit nieuwsbericht?
Het verwijst naar rekenmodules voor Artificial Intelligence in lage baan (LEO), bedoeld voor inferentie en verwerkingswerkzaamheden, niet noodzakelijk een traditioneel datacenter met duizenden servers.
Waarom kan het hergebruik van de bovenste trap van een raket de orbitale lanceringen goedkoper maken?
Omdat het de noodzaak wegneemt om een satelliet vanaf nul te ontwerpen voor hardwarehosting: de bovenste trap wordt gebruikt als actieve platform in de ruimte, wat kosten en complexiteit vermindert.
Welke technische voordelen heeft inferentie van AI in de ruimte ten opzichte van inferentie in aardse datacenters?
De belangrijkste argumenten zijn het dichter bij datastromen opereren en de mogelijkheid om gebruik te maken van ‘space edge computing’, aangevuld door het potentieel van een zonne-energie gebaseerde energievoorziening in de orbitale omgeving.
Wat zijn de grootste operationele risico’s van een ‘orbitale datacenter’ voor systeembeheerders en ontwikkelaars?
Thermisch beheer in vacuum, straling, beperkte onderhoudsopties, remotely uitvoeren van updates, afhankelijkheid van space-links, regulering van ruimteverkeer en de complexiteit van het monitoren en beveiligen van een verspreide satellietconstellatie.
