Akamai heeft een belangrijke stap gezet in haar kunstmatige intelligentie-strategie met de introductie van AI Grid Intelligent Orchestration, een nieuwe orkestratielaag voor gedistribueerde inferentie. Volgens het bedrijf maakt deze nieuwe laag hun netwerk de eerste wereldwijde implementatie gebaseerd op het NVIDIA AI Grid referentiedesign. De oplossing bouwt voort op de infrastructuur van Akamai Inference Cloud en omvat het uitrollen van duizenden NVIDIA RTX PRO 6000 Blackwell Server Edition GPU’s, waardoor inferentie dichter bij de gebruiker kan plaatsvinden in plaats van uitsluitend in grote centrale clusters.
Dit aankondiging is belangrijk omdat het een fundamentele verandering in de markt weerspiegelt. De afgelopen jaren draaide de discussie over AI vooral om grootschalige, gecentraliseerde ‘AI-fabrieken’ die gericht waren op training en cutting-edge modellen. Akamai erkent dat rol niet volledig, maar stelt dat veel praktische inferentietaken — vooral bij realtime video, IA-agenten, personalisatie en fysieke AI-toepassingen — iets anders vereisen: lage latency, nabijheid tot de data en een netwerk dat kan beslissen waar elke aanvraag het beste kan worden uitgevoerd, met een optimale balans tussen kosten en prestaties.
Van het centrale datacenter naar gedistribueerde randlocaties
De kern van Akamai’s benadering is dat inferentie niet langer altijd afhankelijk kan zijn van een heen-en-weer reis naar een groot extern cluster. Hun nieuwe architectuur verdeelt de werkbelasting over randlocaties, tussenregio’s en centrale nodes, met een orkestrator die in realtime beslist waar iedere verzoek het beste kan worden afgehandeld. Volgens het bedrijf is deze ‘control plane’ ontworpen om te optimaliseren wat zij ‘tokenomics’ noemen — dat wil zeggen, de kosten per token, de tijd tot het eerste token en de algehele throughput.
In de praktijk betekent dit het toepassen van technieken zoals semantische caching, model-affiniteit en slimme routing. Hierdoor worden de duurste GPU’s gereserveerd voor de taken die ze echt nodig hebben, terwijl minder intensieve aanvragen worden doorverwezen naar goedkopere resources. Op de officiële productpagina benadrukt Akamai dat hun platform ook inferentie, netwerktechnologie en beveiliging combineert in één gedistribueerd laagje, met specifieke controles voor modellen, agents en API’s die aan het edgepunt worden blootgesteld.
Dit alles wordt gerealiseerd op een infrastructuur van meer dan 4.400 edge-locaties, een opvallend cijfer binnen dit initiatief. Akamai stelt dat deze reikwijdte het mogelijk maakt om aanvragen te verwerken op het punt van digitale aanraking met de gebruiker, waardoor de latentie van een traditionele cloud-omgeving die afhankelijk is van het ‘origin’-punt wordt vermeden. NVIDIA positioneert deze ontwikkeling binnen haar visie van AI Grid, een architectuurconcept ontworpen voor het plaatsen en orkestreren van AI over meerdere verspreide locaties.
Blackwell, security en workload gericht op agenten
De technische kern wordt gevormd door de NVIDIA RTX PRO 6000 Blackwell Server Edition GPU’s. Akamai legt uit dat hun Inference Cloud is ontwikkeld voor AI-inferentie aan de edge en dat deze GPU’s samen met BlueField DPU’s worden ingezet om de tijd tot het eerste token te verbeteren en de tokens per seconde te verhogen. Volgens het bedrijf levert Blackwell in tests tot 1,63 keer meer inference throughput dan de H100 GPU binnen hun eigen cloud, al moet dat cijfer als interne benchmark worden gezien.
De strategische boodschap sluit aan bij de verwachte workloads voor 2026, waarbij Akamai openlijk spreekt over agentic AI, fysieke AI en hypergepersonaliseerde ervaringen als drijvende krachten achter de vraag. In hun productnotitie worden use cases genoemd zoals AI-gediende NPC’s voor videogames, realtime reccommendatiemotoren, fraudedetectie, automatisering, Retrieval-Augmented Generation (RAG), multi-agent systemen en tools voor retail en klantenservice. Parallel hieraan ziet NVIDIA gedistribueerde, lage-latentie AI als een van de belangrijkste doelstellingen van haar nieuwe AI Grid Reference Design.
Een ander relevant punt is dat Akamai zich wil onderscheiden van louter ‘GPU-hosting’. Het bedrijf benadrukt dat ze geen enkel aanbieden van toegang tot versnellers, maar een volledige edge inferentieplatform met slimme routing, bescherming tegen misbruik van modellen, identificatiecontroles, segmentatie en beveiliging specifiek voor AI. Deze beveiligingslaag is met name relevant nu veel organisaties zich zorgen maken over niet alleen de kosten, maar ook over het risico van prompt-injectie, scraping, API-misbruik of lateral movement binnen hun systemen.
Een ambitieus initiatief dat verder reikt dan het lijkt
Akamai was eind 2025 al begonnen met deze strategie, toen het haar Inference Cloud lanceerde en het koppelde aan de groei van inferentiële AI buiten de centrale datacenters. Nu zet het bedrijf deze ambitie verder uit, ondersteund door een belangrijke financiële investering: op 5 maart maakte Akamai bekend dat het een vierjarig servicecontract had afgesloten ter waarde van 200 miljoen dollar met een grote Amerikaanse techgigant. Dit contract voorziet in een cluster van duizenden Blackwell GPU’s in een datacenter dat speciaal is ontworpen voor AI-infrastructuur in de metro-edge gebieden.
Dit contract betekent niet automatisch dat Akamai een directe concurrent wordt van de grote hyperscalers, maar toont wel haar ambitie om een andere koers te varen. In plaats van alleen te concurreren op grootschalige, gecentraliseerde training, richt Akamai zich op het versterken van de gedistribueerde inferentie-infrastructuur waar nabijheid, netwerk en orkestratie net zo belangrijk worden als de GPU’s zelf. De belangrijkste interpretatie van deze aankondiging is dat Akamai niet beweert dat de toekomst van AI louter in de ‘AI-fabrieken’ ligt, maar dat deze fabrieken buitenom moeten worden uitgebreid tot het edge-netwerk om de volgende generatie realtime applicaties goed te kunnen ondersteunen.
Natuurlijk blijft de meest uitdagende stap nog om aan te tonen dat een dergelijke gedistribueerde mesh daadwerkelijk kan voldoen aan SLA’s, kosten en prestatie-eisen in een volledige operationele omgeving. Maar de industrie ziet hier een logische ontwikkeling. Waar AI in de eerste fase draaide om enorme clusters voor training, wordt de volgende fase gekenmerkt door de vraag ‘hoe en waar worden die modellen ingezet?’. En daarin gelooft Akamai dat haar reeds bekende infrastructuur en ervaring in wereldwijde distributie hen een voordeel biedt dat kan uitmonden in een nieuwe vorm van inferentieprestatie.
Veelgestelde vragen
Wat heeft Akamai precies aangekondigd?
Akamai heeft AI Grid Intelligent Orchestration gepresenteerd, een orkestratielaag voor gedistribueerde inferentie binnen Akamai Inference Cloud, ondersteund door meer dan 4.400 edge-locaties en duizenden NVIDIA RTX PRO 6000 Blackwell GPU’s.
Wat betekent het dat dit de eerste wereldwijde implementatie van NVIDIA AI Grid is?
Het betekent dat Akamai beweert het NVIDIA AI Grid referentiedesign operationeel te hebben gemaakt op grote schaal, waarmee delen van AI-ladingen tussen meerdere verspreide locaties kunnen worden gedeeld en beheerd in plaats van alles in enkele centrale clusters te concentreren.
Voor welke soorten toepassingen is dit model bedoeld?
Akamai noemt onder andere AI-gediende NPC’s voor videogames, fraudedetectie, realtime aanbevelingen, video-dubbing en transcodering, retailtoepassingen, assistenten en AI-agenten die lage latency en snelle respons near the user vereisen.
Is Akamai Inference Cloud al beschikbaar?
Ja, Inference Cloud is momenteel beschikbaar voor gekwalificeerde zakelijke klanten op aanvraag.
via: akamai
