Akami Technologies (NASDAQ: AKAM) heeft een nieuwe mijlpaal bereikt in de ontwikkeling van kunstmatige intelligentie door de eerste wereldwijde implementatie van het NVIDIA AI Grid referentiemodel aan te kondigen. Deze initiatief integreert de AI-infrastructuur van NVIDIA binnen het wereldwijde netwerk van Akamai en maakt gebruik van intelligente workload-orchestratiesystemen om te opereren over de gehele infrastructuur. Met deze aanpak streeft het bedrijf ernaar om de geïsoleerde AI-fabrieken te overstijgen en verder te gaan richting een gedistribueerd en verenigd netwerk dat is toegewijd aan AI-inferentie.
Deze beweging vertegenwoordigt een belangrijke stap in de evolutie van Akamai Inference Cloud, het platform dat het bedrijf eind vorig jaar introduceerde. Als eerste organisatie ter wereld die een netwerk op basis van het AI Grid-concept heeft uitgerold, maakt Akamai gebruik van duizenden NVIDIA RTX PRO 6000 Blackwell Server Edition GPU’s, waarmee een platform ontstaat waarmee bedrijven fysiek en acterend AI-systeem kunnen uitvoeren met de snelheid van lokaal computationeel vermogen en tegelijkertijd met de schaalgrootte van een wereldwijd netwerk.
“AI-fabrieken zijn vooral ontworpen voor het trainen en uitvoeren van geavanceerde modellen, en de gecentraliseerde infrastructuur blijft de beste tokenconomie voor deze toepassingen bieden,” zegt Adam Karon, Director of Operations en General Manager van het Cloud Technology Group bij Akamai. “Maar live video, fysieke AI-toepassingen en zeer gelijktijdige gepersonaliseerde ervaringen vereisen inferentie op het contactpunt, niet een heen-en-weer-reis naar een gecentraliseerd cluster. Ons intelligente AI Grid-orkestratiesysteem biedt AI-fabrieken een manier om inferentie uit te breiden door gebruik te maken van dezelfde gedistribueerde architectuur die de contentdistributie heeft getransformeerd, door workloads voor AI via 4.400 locaties te routeren, tegen de juiste kosten en op het juiste moment.”
De “Tokenomics”-architectuur
In het hart van AI Grid vindt een intelligente coördinator plaats die als real-time tussenpersoon fungeert voor AI-aanvragen. Door gebruik te maken van Akamai’s expertise in optimalisatie van applicatietoepassingen voor AI, optimaliseert dit loadgevoelige control-plane de “tokenomics”, waardoor de kosten per token, de tijd tot het eerste token en de prestaties radicaal verbeteren.
Een van de belangrijkste onderscheidende kenmerken van Akamai is de mogelijkheid voor klanten om toegang te krijgen tot aangepaste of verspreide modellen via hun enorme wereldwijde aanwezigheid. Dit biedt aanzienlijke voordelen qua kosten en prestaties voor de long tail– workloads van AI. Bijvoorbeeld:
- Schaalbare winstgevendheid: bedrijven kunnen de inferentiekosten drastisch verlagen door workloads automatisch toe te wijzen aan het juiste computationele niveau. De coördinator gebruikt technieken zoals semantisch caching en intelligente routering om verzoeken naar de juiste resources te sturen, terwijl premium GPU-cycli worden gereserveerd voor workloads die daar om vragen. Dit alles wordt ondersteund door Akamai Cloud, gebouwd op een open-source infrastructuur met ruime uitval voor grootschalige datagedreven AI-operaties.
- Realtijdbereikbaarheid: game-ontwikkelaars kunnen IA-gestuurde NPC-interacties bieden die de speler binnen milliseconden onderdompelen. Financiële instellingen kunnen gepersonaliseerde fraudedetectie- en marketingaanbevelingen uitvoeren vanaf het moment van inloggen tot het eerste scherm. Omroepen kunnen inhoud realtime transcoderen en dubbelen voor wereldwijde doelgroepen. Deze resultaten zijn mogelijk dankzij Akamai’s wereldwijd gedistribueerde edge-netwerk met meer dan 4.400 cache-locaties, edge-computing zonder servers en hoge verbindingssnelheden die verzoeken verwerken op het punt van contact, waardoor vertragingen en heen-en-weer cloud-trips worden voorkomen.
- Productiekwaliteit AI in de kern (Core): grote taalmodellen, doorlopende training en multimodale inferentie workloads vereisen continue, hoge dichtheid computationele kracht die alleen door een dedicated infrastructuur kan worden geboden. Akamai’s clusters met duizenden GPU’s, aangedreven door NVIDIA RTX PRO 6000 Blackwell Server Edition, bieden de geconcentreerde kracht voor de zwaarste AI-workloads, en complementeren de gedistribueerde edge met een centrale schaal.
De continue informatica: van kern tot edge (Core to Far-Edge)
Gebaseerd op NVIDIA AI Enterprise en gebruikmakend van de NVIDIA Blackwell-architectuur en NVIDIA BlueField DPU’s voor netwerken en hardwareversnelde beveiliging, kan Akamai complexe serviceniveaudiensten (SLA’s) beheren op zowel edge- als centrale locaties:
- De Edge (meer dan 4.400 locaties): biedt snelle reactietijden voor fysieke AI en autonome agenten. Het benut semantisch caching en serverloze functies zoals Akamai Functions (WebAssembly-gebaseerde computing) en EdgeWorkers om modelaffiniteit en consistente prestaties op het contactpunt te garanderen.
- Akamai Cloud IaaS en dedicated GPU-clusters: de centrale cloudinfrastructuur maakt portabiliteit en kostenbesparing mogelijk voor grootschalige workloads, terwijl met GPU NVIDIA RTX PRO 6000 Blackwell uitgeruste pods een robuuste training en multimodale inferentie mogelijk maken.
“De nieuwe native AI-toepassingen vragen voorspelbare latentie en schaalbare winstgevendheid wereldwijd,” stelt Chris Penrose, Vice President of Global Business Development en Telecom bij NVIDIA. “Met de introductie van NVIDIA AI Grid creëert Akamai het weefsel voor generatieve, acterende en fysieke AI, door intelligentie direct naar de data te brengen en zo de volgende golf van realtime applicaties mogelijk te maken.”
De volgende golf van realtime AI aandrijven
Akamai ziet al een sterke vroege adoptie van Akamai Inference Cloud in sectoren die intensief gebruikmaken van computing resources en gevoelig zijn voor vertragingen:
- Gaming: ontwikkelaars implementeren inferenties van minder dan 50 milliseconden voor IA-aangedreven NPC’s en realtime interacties tussen spelers.
- Financiële diensten: banken vertrouwen op het netwerk voor hypergepersonaliseerde marketing en snelle aanbevelingen bij login.
- Media en video: omroepen gebruiken het gedistribueerde netwerk voor IA-gestuurde transcoding en real-time dubbing.
- Retail: retailers passen het netwerk toe voor AI-toepassingen in winkels en gerelateerde productiviteitstools op het verkooppunt.
Aangedreven door de bedrijfsbehoefte, is het platform ook gevalideerd door toonaangevende technologieleveranciers, inclusief een vierjarig servicecontract ter waarde van 200 miljoen dollar voor een cluster van duizenden GPU’s in een datacenter dat specifiek is ontworpen voor enterprise AI-infrastructuur op het metropoolrandje.
Van gecentraliseerde naar gedistribueerde AI-fabrieken
De eerste golf van AI-infrastructuur werd gekenmerkt door grote GPU-clusters op enkele gecentraliseerde locaties, geoptimaliseerd voor training. Maar nu inferentie de dominante workload wordt en bedrijven uit diverse sectoren zich richten op het creëren van AI-agenten, ondervindt dat gecentraliseerde model grenzen vergelijkbare beperkingen als eerdere generaties internetinfrastructuur in media-distributie, online gaming, financiële transacties en complexe microservices.
Akamai lost deze uitdagingen op met hetzelfde fundamentele principe: gedistribueerde netwerken, intelligente orkestratie en systemen die specifiek ontworpen zijn om content en context zo dicht mogelijk bij het digitale contactpunt te brengen. Het resultaat is een verbeterde gebruikerservaring en een hoger rendement voor bedrijven die het model omarmen. Akamai Inference Cloud past die bewezen architectuur toe op AI-fabrieken, waardoor een nieuwe golf van schaalvergroting en groei mogelijk wordt door het dense computationele werk uit te breiden van kern naar edge. Dit geeft bedrijven de mogelijkheid om AI-agenten te implementeren die contextgevoelig en responsief zijn. Voor de sector betekent het een paradigma verschuiving: van geïsoleerde installaties naar een wereldwijde gedistribueerde AI-infrastructuur.
