Oracle en AMD Versnellen AI Supercomputing: OCI Zet Meer Dan 130.000 MI355X GPUs In Voor Versnelling van Modeltraining en Inferentie op Schaal

Oracle’s Cloud: Nieuwe Superclusters voor AI op Basis van AMD GPUs

Oracle gaat een strategische samenwerking aan met AMD om hun cloud (Oracle Cloud Infrastructure, OCI) te voorzien van de nieuwste generatie AMD Instinct MI355X versnellers. Deze zet versterkt de positie van de onderneming in de markt van supercomputing gericht op kunstmatige intelligentie (AI). Het partnerschap omvat de opbouw van een zettascale supercluster dat tot 131.072 MI355X GPUs kan herbergen, wat een van de grootste cloud-gebaseerde AI-hardware-implementaties wereldwijd vertegenwoordigt.

Prestaties en Efficiëntie: Sleutels tot het Nieuwe Supercluster

De nieuwe aanbieding, die binnenkort beschikbaar zal zijn op OCI, belooft klanten meer dan het dubbele rendement per prijs in vergelijking met de vorige generatie van AMD. De MI355X, officieel gepresenteerd op het Advancing AI-evenement van AMD in San José (Californië), zijn vervaardigd met 3-nanometer technologie en gebaseerd op de CDNA 4-architectuur.

Enkele belangrijke kenmerken zijn:

  • 288 GB HBM3E-geheugen met een bandbreedte van 8 TB/s per GPU.
  • Tot 1.400 watt per GPU en 64 GPUs per rack, met vloeistofkoeling.
  • Ondersteuning voor 4-bit floating point (FP4), essentieel voor de inferentie van geavanceerde generatieve modellen en grote LLMs.
  • Verhoging van x2,8 in throughput, wat de rekenkracht ten opzichte van de vorige generatie verdrievoudigt.
  • Vergelijking met NVIDIA Blackwell: AMD stelt dat de MI355X 1,6 keer meer geheugencapaciteit biedt, het dubbele FP64-prestaties heeft en dezelfde bandbreedte als de nieuwe GB200/B200 levert.

Daarnaast steunt de nieuwe generatie op het geavanceerde netwerksysteem van AMD Pollara NICs, met RoCE-ondersteuning en Ultra Ethernet Consortium voor lage latentie en hoge beschikbaarheid, cruciaal voor gedistribueerde AI-taken.

Open Infrastructuur en Geen Vendor Lock-In

Een van de sterke punten van de overeenkomst is de focus op open source software en het ontbreken van vendor lock-in: klanten kunnen het ROCm-stack van AMD gebruiken, dat compatibel is met populaire modellen en frameworks, wat de migratie van projecten en integratie met hybride architecturen vergemakkelijkt.

De infrastructuur is ontworpen om de gehele levenscyclus van AI te dekken: van het trainen van grootschalige taal- en visiemodellen tot ultra-efficiënte inferentie voor generatieve applicaties en autonome systemen. Oracle onderstreept dat hun clusters "minimale inferentie- en trainingstijden, verhoogde energie-efficiëntie en een geoptimaliseerde orkestratie bieden, ondersteund door de nieuwste generatie AMD Turin CPU’s."

Technologische Rivaliteit: NVIDIA Blackwell Ook op OCI

Tegelijk met de aankondiging met AMD heeft Oracle bekendgemaakt dat hun supercluster met NVIDIA’s GB200 NVL72 (Blackwell) nu ook beschikbaar is. Dit voegt zich bij de trend van het aanbieden van beide toonaangevende architecturen in de cloud. De implementatie, die ook integratie met het DGX Cloud Lepton-platform van NVIDIA inhoudt, verhoogt de totale AI-capaciteit van OCI naar ongekende hoogten en speelt in op de groeiende vraag naar rekenintensie door bedrijven, overheden en startups.

Klanten en Toepassingsgevallen: Seekr Kiest voor Oracle en AMD

Een van de eerste klanten is het AI-bedrijf Seekr, dat een meerjarige overeenkomst met OCI heeft gesloten om de volgende generatie taal- en visiemodellen te trainen, met toepassingen in satellieten en de analyse van grote hoeveelheden sensor-data. Seekr waardeert de schaalbaarheid, de multinode-prestaties en de internationale flexibiliteit van de Oracle-AMD-infrastructuur, evenals de gezamenlijke ondersteuning voor de optimalisatie van modellen en wereldwijde implementaties.

Vooruitzichten en Concurrentie in de AI Cloud

Oracle positioneert zich zo als een van de “hyperscalers” die pionieren in het aanbieden van zettascale AI-clusters, zowel met AMD als NVIDIA, waardoor de opties worden uitgebreid voor bedrijven die maximale rekenkracht, efficiëntie en flexibiliteit nodig hebben. Deze stap, die zich voegt bij eerdere aankondigingen over de implementatie van duizenden GB200 GPUs in datacenters zoals Stargate (Texas), intensifieert de concurrentie tussen cloud-aanbieders om projecten op het gebied van de nieuwste AI-technologie aan te trekken.

Volgens Oracle: "We bieden de meest diverse en efficiënte infrastructuur aan voor klanten die modellen op grote schaal willen trainen en infereren, ondersteund door open technologie, veiligheid, flexibiliteit en concurrerende zakelijke overeenkomsten." AMD benadrukt op zijn beurt het belang van deze mijlpaal voor het democratiseren van toegang tot AI-supercomputing en het reageren op de wereldwijde vraagexplosie.

De toekomst van kunstmatige intelligentie, en de cloud die deze ondersteunt, wordt vandaag beslist in de grote datacenters — en de overeenkomst tussen Oracle en AMD markeert een nieuw hoofdstuk in de race om technologische suprematie.

Scroll naar boven