Akamai Lanceert Inference Cloud met NVIDIA: Verspreide AI-inferentie van Kern tot Rand voor het Tijdperk van Agents en Fysieke AI

Akamai lanceert Inference Cloud: AI-inferentie tot aan de rand van het internet

Akamai heeft zijn nieuwste platform, Inference Cloud, gepresenteerd, gericht op de inferentie van kunstmatige intelligentie (AI) van centrale datacentra naar de rand van het internet. Dit nieuwe aanbod belooft lage latentie, veiligheid en wereldwijde schaalbaarheid voor toepassingen van agent-achtige AI en Physical AI zoals robots, voertuigen en slimme steden. De oplossing maakt gebruik van NVIDIA Blackwell-infrastructuur en Akamai’s wereldwijde gedistribueerde netwerk om rekenkracht dichter bij gebruikers en apparaten te brengen.

Strategische visie: AI dichter bij de gebruiker

Akamai’s strategische benadering is duidelijk: de volgende generatie applicaties — agenten die handelen, gepersonaliseerde ervaringen en realtime beslissingssystemen — vereisen dat inferentie dicht bij de gebruiker plaatsvindt. Met Inference Cloud verplaatst Akamai de AI-besluitvorming naar duizenden locaties en coördineert slim waar elke taak moet worden uitgevoerd, om bijna onmiddellijke reacties te waarborgen.

Wat zit er onder de motorkap: Blackwell aan de rand en een wereldwijd netwerk

Inference Cloud combineert NVIDIA RTX PRO-servers (inclusief de RTX PRO 6000 Blackwell Server Edition), NVIDIA BlueField-3 DPUs en NVIDIA AI Enterprise software, alles binnen de gedistribueerde cloudinfrastructuur en het edge-netwerk van Akamai met meer dan 4.200 locaties wereldwijd. De road map omvat BlueField-4 voor versnellings- en beveiligingsverbeteringen van de datatoegang en inferentielasten van het kern- naar het randnetwerk. De implementatie start in 20 initiële locaties, met een geleidelijke expansie die al van start is gegaan.

Toepassingsgebieden: van realtime agents tot fysieke AI

  • Agent-achtige AI en gepersonaliseerde ervaringen: uitbreiding van “AI-fabrieken” naar de rand voor slimme handel en assistenten die in realtime kunnen onderhandelen, aankopen en optimaliseren op basis van gebruiker locatie, gedrag, en intentie.

  • Streaming inferentie voor financiële beslissingen: meerdere sequentiële inferenties die typisch zijn voor agenten worden opgelost met millisecondentraagheid, nuttig voor fraudedetectie, veilige betalingen, en automatisering.

  • Physical AI: ondersteuning voor industriële robots, drones, stedelijke infrastructuur en autonome voertuigen, waarbij tijdelijke precisie en veiligheid essentieel zijn voor het verwerken van sensordata en besluitvorming met de snelheid van de fysieke wereld.

Orkestratie tussen core en edge: waar elke taak uit te voeren

Het controleplan stuur elke aanvraag dynamisch naar het meest efficiënte punt:

  • De routinematige en latentiegevoelige taken worden afgehandeld aan de rand, inclusief NVIDIA NIM-microservices.

  • De meer complexe of redeneringsgebonden taken worden naar gecentraliseerde AI-fabrieken gestuurd.

Dit alles wordt beheerd vanuit een geïntegreerd platform dat de complexiteit van het opereren van wereldwijd gedistribueerde AI-belastingen abstraheert.

Beveiliging en naleving: gedistribueerde architectuur, gecentraliseerde controles

Inference Cloud is gebouwd op het veiligheidsmodel en de wereldwijde operaties van Akamai, met toevoeging van BlueField DPUs als laag van isolatie, versleuteling en offload van kritische taken. De combinatie van edge + Blackwell + AI Enterprise richt zich op gereguleerde sectoren die traceerbaarheid, governance en lage latentie zonder concessies vereisen.

Wat dit betekent voor de markt

  • Minder latentie, meer nabijheid: voor agents en interactieve applicaties is het cruciaal om inferentie zo dicht mogelijk bij de gebruiker uit te voeren; een netwerk met meer dan 4.200 punten biedt voordelen in nabijheid.

  • Wereldwijde schaalbaarheid: de start op 20 locaties verkort de tijd tot de markt en maakt groei in fasen mogelijk, afhankelijk van de werkelijke vraag.

  • Modellenportabiliteit: gebruikmakend van NVIDIA AI Enterprise en NIM, wordt het verplaatsen van workloads tussen edge en core vergemakkelijkt zonder de applicatie opnieuw te schrijven.

Veelgestelde vragen

Wat is precies Akamai Inference Cloud?
Een gedistribueerd inferentieplatform dat AI uitvoert aan de rand en in de core, met NVIDIA Blackwell hardware, BlueField DPUs en AI Enterprise software, ontworpen voor extreem lage latenties en wereldwijde implementaties.

Hoeveel locaties heeft Akamai’s edge en waar begint de dienst?
Het edge-netwerk heeft meer dan 4.200 locaties; de initiële beschikbaarheid begint in 20 locaties, met een expansieplan in uitvoering.

Welke workloads profiteren het meest?
Agents met meerdere inferenties per taak, financiën (fraude, betalingen), e-commerce (gepersonaliseerde ervaringen) en Physical AI (robots, voertuigen, slimme steden) die beslissingen in milliseconden vereisen.

Hoe beslist het platform waar te executeren (edge vs. core)?
Via een orkestratielaag die dynamisch routert: latency-gevoelige taken worden aan de rand afgehandeld; complexe workflows worden naar gecentraliseerde AI-fabrieken gestuurd. Alles wordt beheerd vanuit een geïntegreerd dashboard.

Bronnen: Persbericht en officiële materialen van Akamai over Akamai Inference Cloud (28/10/2025) en documentatie van NVIDIA met betrekking tot Blackwell, NIM en BlueField.

Scroll naar boven