Akamai Technologies lanceert Akamai Inference Cloud: een Revolutie in Kunstmatige Intelligentie
Akamai Technologies, Inc. (NASDAQ: AKAM) heeft een baanbrekende nieuwe platform geïntroduceerd: Akamai Inference Cloud. Dit innovatieve systeem transformeert de manier waarop kunstmatige intelligentie (AI) wordt toegepast, door inferentieprocessen te verplaatsen van traditionele datacenters naar het Edge van het Internet.
Met Akamai Inference Cloud kunnen geavanceerde en autonome AI-inferenties direct aan de rand van het netwerk worden uitgevoerd, dichter bij de gebruikers en hun apparaten. In tegenstelling tot conventionele infrastructuren, is deze nieuwe oplossing ontworpen voor real-time AI-verwerking, met een lage latentie en wereldwijde reikwijdte. De lancering combineert Akamai’s uitgebreide expertise in gedistribueerde architecturen met de AI-infrastructuur technologie van NVIDIA Blackwell, waarmee de berekeningen die nodig zijn om het ware potentieel van AI te ontsluiten, opnieuw worden gedefinieerd.
Stijgende Vraag naar Slimme Applicaties
De toenemende vraag naar geavanceerde slimme applicaties — zoals gepersonaliseerde digitale ervaringen, autonome assistenten en real-time besluitvormingssystemen — vereist dat inferentie zo dicht mogelijk bij de gebruiker plaatsvindt. Dit zorgt voor directe reacties en een efficiënte afhandeling van verzoeken, gebaseerd op lokale context.
Akamai Inference Cloud fungeert als een generatief en verspreid platform aan de Edge, dat de kracht van NVIDIA’s AI dichterbij de datagenererende en besluitvormende locaties brengt. Dit biedt een toekomstbestendige infrastructuur voor wereldwijde kunstmatige intelligentie.
Dr. Tom Leighton, CEO en mede-oprichter van Akamai, stelt: “De volgende golf van AI vereist dezelfde gebruikersbenadering die het Internet heeft omgevormd tot de alomtegenwoordige mondiale platform van vandaag. Akamai heeft deze uitdaging al eerder opgelost en zal dit opnieuw doen. Dankzij de AI-infrastructuur van NVIDIA zal Akamai Inference Cloud voldoen aan de groeiende vraag naar verhoogde capaciteit en prestatie van AI-inferentie.”
Meer dan Alleen Inferentie
Jensen Huang, oprichter en CEO van NVIDIA, merkt op dat “inferentie de meest computationeel intensieve fase van AI is geworden.” Hij zegt verder: “Samen brengen NVIDIA en Akamai de inferentie dichter bij gebruikers wereldwijd, wat zorgt voor snellere en schaalbare generatieve AI en opent de deuren naar de volgende generatie slimme applicaties.”
De Akamai Inference Cloud benut krachtige servers, waaronder NVIDIA RTX PRO en de DPU NVIDIA Bluefield-3, in combinatie met de gedistribueerde cloud computing infrastructuur van Akamai. Met meer dan 4200 locaties wereldwijd, stimuleert het platform de visie van Akamai voor gedistribueerde en hoog-schaalbare AI-prestaties.
Slimme Toepassingen Aan de Edge
Akamai Inference Cloud redefineert waar en hoe AI wordt toegepast. Enkele effecten van deze oplossing zijn:
Integratie van AI-fabrieken met de Edge: Dit stelt slimme handelsagenten en gepersonaliseerde digitale ervaringen in staat om de data en verwerking te decentraliseren, zodat ze onmiddellijk kunnen inspelen op gebruikersbehoeften.
Real-time Informatievoorziening: AI-agenten kunnen nu snel beslissingen nemen, wat cruciaal is voor sectoren zoals financiën, waar vertraging schadelijk kan zijn.
Snelle Respons in Fysieke Systemen: Voor autonome voertuigen en slimme steden is snelle besluitvorming essentieel om veilig te kunnen functioneren.
Versnelde ROI: De intelligente coördinatielaag van Akamai Inference Cloud optimaliseert AI-taken, waardoor de implementatie eenvoudiger en efficiënter wordt.
Akamai Inference Cloud is momenteel beschikbaar op 20 initiële locaties wereldwijd, met plannen voor verdere uitbreiding van de implementatie. Deze ontwikkeling markeert een belangrijke stap in de evolutie van kunstmatige intelligentie en laat een nieuwe horizon van mogelijkheden zien voor innovaties aan de Edge.
