De explosieve groei van de vraag naar AI transformeert niet alleen datacenters: het drijft ook de computerarchitectuur richting “uit het hart” en dichter bij de gebruiker. In de strijd om lage latentie —en de soevereiniteit over data— telt elke meter glasvezel. Daarom is het aangekondigde initiatief vanuit Barcelona door Submer, een leverancier van AI-infrastructuur, geen louter bedrijfsnieuws: het richt zich op een puzzelstuk dat veel actoren met moeite probeerden te plaatsen.
Submer heeft aangekondigd Radian Arc Operations Pty Ltd over te nemen, een aanbieder van een Infrastructure-as-a-Service (IaaS)-platform dat bedoeld is om generieke cloud GPU-diensten te ontsluiten “ingebed” in telecommunicatienetwerken. De overname, aangekondigd op 10 februari 2026, richt zich op een concreet idee: het aanbieden van een compleet “stack” dat AI-fabrieken in datacenters verbindt met geautomatiseerde edge-acceleratie binnen het netwerk van de operator zelf.
Van GPU in het datacenter… tot GPU in de carrier
De markt wordt geconfronteerd met een ongemakkelijke realiteit: AI is geworden wat infrastructuur is, en infrastructuur wordt steeds meer een kwestie van locatie. Voor inferentie met lage latentie, cloud gaming, intelligente video, real-time analytics of “live” reagerende assistenten, kan de route naar een ver gelegen datacenter het verschil maken tussen een bruikbare en een frustrerende dienst.
Radian Arc positioneert zich precies vanuit dat perspectief. Volgens communicatie wordt hun platform gebruikt binnen telecommunicatienetwerken om workloads te ondersteunen zoals cloud gaming en AI-inferentie, waar prestaties en latency cruciaal zijn. Bovendien speelt een belangrijk argument een steeds grotere rol, vooral in Europa en veel andere landen: dataverwerking “binnen het land”, binnen lokale infrastructuur, geïntegreerd met de systemen van de operator (inclusief facturatie en data).
Met andere woorden: het gaat niet alleen om het huren van GPU’s, maar om het transformeren van het netwerk van de operator tot een gedistribueerde rekenlaag.
Een “stack” met twee lagen: kern en rand, met soevereiniteit als kernboodschap
De overname sluit aan bij de narratief die Submer rondom haar platform wil bouwen. Het bedrijf legt uit dat de volledige “full-stack” oplossing wordt uitgebreid door de integratie van InferX — haar NVIDIA Cloud Partner-platform — met de edge-GPU-laag van Radian Arc.
Het resultaat, zoals Submer dat presenteert, is een voorstel van een “dubbele laag”:
- Kernlaag (datacenter) voor grootschalige AI-implementaties met hoge dichtheid.
- Edge-laag (telecom-geïntegreerd) voor het uitvoeren van diensten dicht bij de eindgebruiker, met lagere latentie en lokaal databeheer.
Radian Arc levert daarnaast operationele tractie: volgens het communiqué zijn er al implementaties bij meer dan 70 telecom- en edge-klanten wereldwijd, met duizenden GPU’s in gebruik. Submer benadrukt daarbij haar rol als “single partner” die “van chip tot operatie” kan ondersteunen, gebaseerd op haar ervaring in vloeistofkoeling en het ontwerpen en uitrollen van modulaire infrastructuur.
Wat betekent dit voor telco’s en bedrijven: minder theorie, meer concrete oplossingen
Los van de slogans weerspiegelt de ontwikkeling een patroon dat in 2026 steeds duidelijker wordt: operators proberen hun kapitaalinvesteringen (zoals in 5G en glasvezel) te benutten door toegevoegde waarde-diensten aan te bieden, zonder zich te willen vastpinnen aan het integreren van incompatibele componenten. Het unified platform, de operationele afhandeling en levering versnellen de “time to revenue”.
Praktisch gezien kan deze combinatie vooral interessant zijn in vier scenario’s:
- Soberane AI-diensten voor de publieke sector en gereguleerde industrieën
Wanneer de eis is dat “gegevens niet het land verlaten”, kan de gedistribueerde infrastructuur binnen telco-netwerken een operationele shortcut vormen. - Laag-latentie inferentie en interactieve workloads
Cloud gaming, industriële copiloten, streaming-analytics en smart video in real-time vragen vaak om minimale latency en jitter. - Hybride implementatiemodellen
Het trainen of aanpassen van modellen in het datacenter en inferentie op de edge is een groeiend patroon. Het voordeel is niet alleen technisch, maar ook financieel: je betaalt voor transport, energie en dataverkeer op de juiste plekken. - Snel schaalbare “as-a-service”-oplossingen
Submer onderstreept dat deze aanpak bedoeld is om snelle uitrol mogelijk te maken zonder grote initiële investeringen, vooral in onzekere vraagscenarios.
Strategische kijk: de edge wordt weer belangrijk
Jarenlang bleef “edge” een vaag begrip. AI verandert dat: het wordt een praktische noodzaak. Terwijl grootschalige training grote clusters vereist, wordt inferentie overal en altijd gebaseerd op nabijheid tot de gebruiker. En de soevereiniteit —gerekend als controle over territorium, regelgeving en operatie— wordt een belangrijke koopmotief, niet alleen een politiek debat.
Submer voegt ook een element toe dat op meer schaal inpakt: het communiqué vermeldt toegang tot een stroom van grond en energie die meer dan 5 GW bedraagt, via samenwerkingsverbanden in het VK, de VS, India en het Midden-Oosten. In een markt waar de bottleneck niet altijd de GPU’s zelf zijn, maar de vergunningen, de energievoorziening en koeling, is dat een duidelijke signaal van intentie.
Snelle overzichtstabel: wat levert elke laag op
| Laag | Wat het bijdraagt | Gebruik |
|---|---|---|
| Submer (infrastructuur) | Ontwerp, bouw en operatie van AI-infrastructuur met hoge dichtheid | AI-fabrieken en grootschalige uitrol |
| InferX (platform) | Operational and delivery layer voor GPU in de cloud (NVIDIA Cloud Partner) | GPU-capaciteit als dienst met governance |
| Radian Arc (Edge telco) | IaaS-platform met geïntegreerde GPU in operator-netwerken | AI en cloud gaming met lage latentie en lokale soevereiniteit |
Veelgestelde vragen
Wat betekent “soberane GPU-cloud” in de praktijk?
Dat de verwerking en opslag van data binnen een land (of jurisdictie) plaatsvinden en onder lokaal operationeel beheer, essentieel voor overheden en gereguleerde sectoren.
Waarom is het interessant voor een telco “GPU’s” in haar netwerk te integreren?
Omdat het lage-latentie-diensten mogelijk maakt (real-time AI, gaming, analytics) en haar kapitaaldekking benut, terwijl afhankelijkheid van verafgelegen locaties afneemt.
Vervangt dit niet de grote “hyperscalers” of concurreert het met hen?
In de meeste gevallen vormt het een aanvulling: het kernnetwerk blijft overlappen met publieke of private cloud, terwijl het edge-dichtbij de gebruiker alle kritieke latency-,kosten- en data-soevereiniteisen afdekt.
Welke workloads profiteren het meest van GPU op de edge?
Interactieve inferentie, cloud gaming, real-time computer vision, videoverwerking, immediate response assistants en event-analytics met strikte latentie-eisen.
