Akamaï, historisch verbonden met de wereld van CDN en content delivery, wil in 2026 onder andere gelezen worden als GPU, inferentie en gedistribueerde Kunstmatige Intelligentie. Het bedrijf heeft de overname aangekondigd van duizenden NVIDIA Blackwell GPU’s met als doel het creëren van een van ’s werelds meest uitgebreide AI-platforms, geïntegreerd in hun cloudinfrastructuur en wereldwijde netwerk.
Deze stap komt op een moment waarop de markt een ongemakkelijke realiteit begint te accepteren: de eerste golf van AI richtte zich op het trainen van modellen in grote, gecentraliseerde “fabrieken”, maar de bottleneck verschuift nu. Inferentie (het inzetten van het model in productie) is net zo belangrijk als het trainen ervan, en in productie wegen latentie, dataverkeer en datahotspots zwaarder dan de gebruikelijke “benchmark”.
Van “trainen op één locatie” naar “antwoord geven vanaf overal”
Akamaï baseert zich op een idee dat tot kort geleden meer op netwerkarchitectuur dan op AI leek: de planeet beschouwen als een backplane met lage latentie. In plaats van het uitvoeren van alle verwerking in enkele grote regio’s, stelt het bedrijf een uniforme platform voor dat inferentietaken routeert naar geoptimaliseerde computing-resources binnen haar gedistribueerde footprint.
Deze aanpak pakt twee klassieke problemen van gecentraliseerde cloud bij het opschalen van AI in productie aan:
- Latentie: wanneer respons “in real-time” moet plaatsvinden (of zo dicht mogelijk daarbij), wordt fysieke afstand opnieuw belangrijk.
- Uitgaande datakosten (egress): het verplaatsen van data van en naar gecentraliseerde datacenters kan de kosten opdrijven, vooral bij grote volumes of bij strikte data-soevereiniteit.
Akamaï onderbouwt haar standpunt met een data die zij citeert uit de MIT Technology Review: 56% van de organisaties ziet latency als de belangrijkste barrière voor grootschalige AI-implementaties. Vanuit die invalshoek positioneert het zich als een “gedecentraliseerd pijnappelklier” om modellen van lab naar praktijk te brengen, daar waar data “woont” en ROI wordt berekend.
Wat gaat Akamai precies inzetten: Blackwell voor inferentie, lokale finetuning en post-trainingsmodellen
Akamaï heeft het exacte aantal accelerators nog niet bekendgemaakt, maar benadrukt dat het om “duizenden” gaat en dat de chips al zijn aangeschaft. De platform is ontworpen om verschillende fasen van de levenscyclus van modellen te ondersteunen, niet alleen de levering van antwoorden:
- High-performance en voorspelbare inferentie, uitgevoerd in dedicated GPU-clusters voor snelle respons.
- Lokale finetuning, om modellen dichtbij de data te optimaliseren, met duidelijke voordelen voor privacy en regionale naleving.
- Post-trainingsaanpassingen, om foundation-modellen te personaliseren met eigen data en de precisie voor specifieke taken te verbeteren.
Wat de technische uitvoering betreft, beschrijft Akamaï een combinatie die aansluit bij de infrastructuur die NVIDIA voor de Blackwell-era promoot: servers met NVIDIA RTX PRO GPU’s en NVIDIA RTX PRO 6.000 Blackwell Server Edition, samen met NVIDIA BlueField-3 DPUs, geïntegreerd in Akamaï’s gedistribueerde cloud.
4.400 locaties: de “niet voor de hand liggende” troef tegenover hyperscalers
Akamaï benadrukt een getal dat geen loze marketing is: haar wereldwijde netwerk bestaat uit meer dan 4.400 locaties. In de praktijk zorgt die topologie dat het verhaal dat hyperscalers al jaren najagen met “edge regions” hier bereikt wordt op basis van een infrastructureel fundament dat al decennia lang voor een eindgebruiker ontworpen is: nabijheid.
Deze strategie wordt door het bedrijf gepresenteerd als een verdere stap in de evolutie van “CDN + security” naar “gedistribueerde cloud”. Het is geen impulsieve zet: in 2022 kocht het Linode voor ongeveer 900 miljoen dollar, een move die werd gezien als de stap naar een algemene infrastructuur die uitbreiding mogelijk maakt voor hogere toegevoegde waarde diensten.
En daarmee komt AI in beeld: Akamaï gelooft dat de markt niet alleen draait om het beste model, maar vooral om het effectief laten werken ervan met minimale latentie en aanvaardbare kosten in praktijkomgevingen. In dat kader positioneert het haar platform als een wereldwijde “AI compute grid” dat geoptimaliseerd is voor inferentie.
Een verdere stap na Inference Cloud: meer GPU’s, meer focus op ROI
Het nieuwe aanbod bouwt voort op eerdere initiatieven. Akamaï presenteerde al haar Inference Cloud en later een uitbreiding met NVIDIA-infrastructuur om inferentie dichter bij de gebruiker te brengen. Ze claimt verbeteringen van tot 2,5 keer in latency en kostenbesparingen tot 86% ten opzichte van traditionele hyperscale infrastructuur, afhankelijk van type workload, locatie en datapatronen.
De markt is duidelijk: bedrijven willen AI in productie, maar hechten ook waarde aan governance, voorspelbare kosten en snelle respons. Akamaï ziet een stevige vraag naar haar “edge AI”-oplossingen en voegt continu capaciteit toe met nieuwe GPU’s, als onderdeel van haar cloud-strategie.
De opening van de strijd: de edge als AI-platform
De beweging van Akamaï gaat niet alleen over GPU’s. Het betreft vooral architectuur: het idee dat operationele AI, “agentic AI” en de “fysieke AI” (robots, logistiek, industrie, gezondheidszorg) beslissingen met minimale latentie en data die omwille van kosten of regelgeving niet altijd in een gecentraliseerd datacenter kunnen verblijven, nodig hebben.
In dat licht zoekt Akamaï een plek als echte alternatief voor een deel van de markt: gedistribueerde inferentie op schaal, met lokale finetuning en prioriteit voor nabijheid en compliance. Werkt het, dan is dat een nieuw teken dat AI in 2026 niet meer slechts een modieuze technologie is, maar een fundamenteel infrastructuurprobleem wordt.
Veelgestelde vragen
Wat betekent “inferentie” in Kunstmatige Intelligentie en waarom is het zo belangrijk in 2026?
Inferentie betekent het inzetten van een getraind model om in productie realistische antwoorden te genereren. In 2026 is dit vooral cruciaal omdat het de ervaring en ROI oplevert, en omdat latency en dataverkeer hier de grootste invloed hebben.
Wat is het voordeel van een gedistribueerd AI-platform ten opzichte van een gecentraliseerde cloud?
Het verkleint de afstand tussen computer en gebruiker of data, wat latentie en uitgaande datakosten kan verlagen. Het faciliteert ook het voldoen aan regelgeving door verwerking in de buurt te laten plaatsvinden.
Welke GPU’s gaat Akamai inzetten en voor welke workloads?
Akamai heeft aangekondigd duizenden NVIDIA Blackwell GPU’s te gebruiken, in servers met RTX PRO 6.000 Blackwell Server Edition, voor inferentie, lokale finetuning en post-trainingsmodellen.
Wordt Akamai een cloud van AI in plaats van alleen een CDN?
Nee, het blijft haar kernwaarden benutten. Haar wereldwijde netwerk, oorspronkelijk ontworpen voor contentdistributie, vormt nu de basis voor dichtbij de data brengen van computationele taken en low-latency inferentie.
© akamai
