IBM en samenwerking met AMD onthult ‘full-stack’ AI-oplossing voor Zyphra in IBM Cloud met MI300X: eerste macrocluster, NIC’s en DPUs van Pensando, en uitbreiding in 2026

IBM en samenwerking met AMD voor AI-infrastructuur van Zyphra

San Francisco, 2 oktober 2023 — IBM en AMD hebben een samenwerking aangekondigd om Zyphra, een startup uit San Francisco die zich richt op open-source “superintelligentie”, te voorzien van een geavanceerde infrastructuur voor het trainen van AI-modellen op de IBM Cloud. Deze samenwerking, die meerdere jaren duurt, plaatst IBM in de rol van leverancier van een groot cluster dat is uitgerust met AMD-versnellers. Hiermee kunnen multimodale fundamentele modellen (taal, beeld en audio) worden getraind. Het is volgens de bedrijven de eerste grootschalige implementatie in IBM Cloud die de volledige AMD-stack voor training integreert, inclusief AMD Pensando Pollara 400 AI NICs en AMD Pensando Ortano DPUs. De eerste fase is begin september 2025 van start gegaan, met een uitbreiding in 2026 gepland.

Deze aankondiging volgt op de afsluiting van Zyphra’s Serie A-financiering, waarin het bedrijf werd gewaardeerd op 1 miljard dollar. Zyphra heeft als doel een leidend laboratorium voor open wetenschap en open source te creëren om nieuwe neuronale architecturen, lange termijn geheugen en continu leren te bevorderen. Het paradepaardje dat in het vooruitzicht ligt, is Maia, een “superagent” die gericht is op de productiviteit van kenniswerkers binnen bedrijven.

“Het is de eerste keer dat de AMD-trainingseenheid – van compute tot netwerk – wordt geïntegreerd en opgeschaald in de IBM Cloud, en bij Zyphra zijn we er trots op de ontwikkeling van grensverleggende modellen te leiden met AMD-silicon in de IBM Cloud,” zegt Krithik Puthalath, CEO en voorzitter van Zyphra.

Wat zit er in het pakket: GPU, slimme netwerken en zakelijke cloud

Het dedicated cluster voor Zyphra combineert verschillende componenten van de AMD-stack:

  • GPU AMD Instinct MI300X voor generatief trainen en gerelateerde HPC-lasten.
  • AMD Pensando Pollara 400 AI NICs voor lage-latentie dataverwerking met hoge prestaties.
  • AMD Pensando Ortano DPUs voor netwerktaken en beveiliging zonder rekenkracht van de hoofdcomputer af te nemen.

IBM Cloud levert zijn zakelijke cloudlaag met beveiliging, betrouwbaarheid, schaalbaarheid en hybride multicloud. Deze combinatie richt zich op specifieke gebruikspatronen, waaronder dedicated trainingsboerderijen die zijn “afgeschermd” voor klanten met extreme computereisen, maar met de elasticiteit en governance van een hyperscaler.

Volgens Alan Peacock, GM van IBM Cloud, is het opschalen van AI-lasten sneller en efficiënter van cruciaal belang voor de ROI, zowel voor grote bedrijven als opkomende ondernemingen. Philip Guido, EVP en Chief Commercial Officer van AMD, ziet de samenwerking als een demonstratie van “innovatie op de snelheid en schaal die klanten eisen” en streeft naar een “nieuwe standaard” voor AI-infrastructuur.

Waarom deze aankondiging belangrijk is (naast Zyphra)

  1. “Full-stack” AMD getest in hyperscaler: Dit is de eerste dedicated macrocluster in IBM Cloud die AMD hardware voor training integreert. Een referentiecase voor andere bedrijven die hun AI in de cloud willen uitrollen met hoge prestaties.

  2. Signaal aan de toeleveringsketen: Grote AI-projecten zijn afhankelijk van HBM en geavanceerde verpakking, evenals van silicon. De samenwerking tussen IBM en AMD benadrukt hun plannen met een klant die intensief gebruikmaakt van capaciteit en service.

  3. Echte concurrentie met NVIDIA: Ondanks de dominantie van NVIDIA met CUDA, wint de AMD-stack traction aan populariteit door co-engineering met extreme computationele klanten.

  4. Cloud als tijdswinstfactor: Hyperscalers met GPU-as-a-service en dedicated contracts zullen een voordeel hebben bij het aantrekken van trainingsprojecten door vermindering van wachttijden en toegang tot productieklare netwerken en services.

Toekomstige ontwikkelingen en risico’s

IBM en AMD hebben ook plannen om archetypes voor de volgende generatie te verkennen met betrekking tot “quantum-centric supercomputing”. Dit betekent het combineren van quantum computing met HPC en AI-versnelling.

Wat betreft risico’s is het belangrijk om in de gaten te houden:

  • Software: De functionele gelijkheid en prestaties van ROCm versus CUDA in real-world workloads zullen bepalend zijn voor de totale eigendomskosten.
  • HBM en OSAT: HBM en packaging zijn onder druk; elke opschaling zal afhankelijk zijn van mondiale bestellingen.
  • Energie en thermiek: Cluster van deze omvang vereist stevige MW-capaciteit en vloeistofkoeling.
  • Netwerken: De gebruikte NICs en DPUs reduceren werkdruk, maar de netwerktopologie blijft cruciaal.
  • Tijdslijn: De uitrol in 2026 zal succesvol zijn als capaciteit geleidelijk toeneemt.

Conclusie

De samenwerking tussen IBM, AMD en Zyphra voegt een belangrijke schakel toe aan de AI-infrastructuur. Met een dedicated macrocluster in IBM Cloud en een complete AMD-stack, zal Zyphra in staat zijn om multimodale fundamentele modellen te ontwikkelen en zijn ambitieuze open-source initiatief verder te versterken. Deze ontwikkeling is niet alleen belangrijk voor Zyphra, maar ook voor IBM, dat zijn aanbod in GPU-as-a-service uitbreidt, en voor AMD, dat zijn bredere applicatiegebied in cloud computing bevestigt.

Scroll naar boven