IBM Cloud integreert Nvidia H100 GPU’s om AI-werklasten te stimuleren

IBM heeft een belangrijke stap gezet in de verbetering van hun cloudcomputing-mogelijkheden door de aankondiging van de integratie van Nvidia H100 GPU’s in het IBM Cloud platform. Deze upgrade zal klanten toegang geven tot hogere prestaties voor hun kunstmatige intelligentie (AI) werklasten, voor zowel training als inferentie.

Belangrijke verbetering in prestatie

De introductie van de H100 GPU’s betekent een aanzienlijke vooruitgang ten opzichte van de eerdere Nvidia A100’s, die IBM vorig jaar had geïmplementeerd. Volgens de informatie van Nvidia, bieden deze nieuwe grafische processors een inferentieprestatie die tot 30 keer sneller is dan hun voorgangers.

Verscheidenheid aan opties voor verschillende behoeften

Naast de krachtige H100 biedt IBM Cloud nog altijd een divers aanbod van GPU’s om te voldoen aan verschillende AI-projectgroottes:

  • Nvidia A100 GPU’s: Voor hoogpresterende AI werklasten.
  • Nvidia L40S en L4 GPU’s: Ontworpen voor AI-taken op een kleinere schaal, zoals het trainen van kleinere modellen of het inzetten van chatbots.

Wereldwijde beschikbaarheid en toekomstplannen

De nieuwe instanties met H100 zijn beschikbaar in multi-zone regio’s van IBM in Noord-Amerika, Latijns-Amerika, Europa, Japan en Australië. Daarnaast heeft het bedrijf plannen aangekondigd om begin 2025 via IBM Cloud toegang te bieden tot Intel Gaudi 3 AI-processors, waardoor hun hardwareopties nog verder worden uitgebreid.

Positionering in de markt

Ondanks deze vooruitgang, is het belangrijk op te merken dat IBM Cloud achterloopt op haar belangrijkste concurrenten in de adoptie van H100 GPU’s. Bedrijven als Amazon Web Services (AWS), Google, Microsoft en Oracle introduceerden meer dan een jaar geleden instanties met deze GPU’s. Zelfs sommige startups gespecialiseerd in cloud GPU’s, zoals CoreWeave en Cirrascale, hadden eerder al toegang tot deze technologie.

De toekomst van GPU’s in de cloud

De markt voor AI GPU’s blijft snel evolueren. Grote cloudserviceproviders, inclusief Oracle, Amazon, Microsoft en Google, hebben al plannen aangekondigd om de volgende generatie van Nvidia GPU’s, bekend als de Blackwell lijn, te implementeren. Nvidia verwacht “verscheidene miljarden dollars” aan GPU’s van de nieuwste generatie te verschepen in het vierde kwartaal van 2024.

Reorganisatie binnen IBM Cloud

Te midden van deze technologische vooruitgang zijn er aanzienlijke veranderingen gemeld in de personeelsstructuur van IBM Cloud. Volgens recente rapporten zou de divisie bezig zijn met een grootschalig ontslagprogramma, zij het discreet. IBM heeft deze beweringen tegengesproken door te stellen dat de aanpassingen in het personeelsbestand een zeer laag percentage van hun wereldwijde personeelsbestand zouden vertegenwoordigen, met verwachtingen om de arbeidsniveaus vergelijkbaar te houden met die van begin 2024.

De integratie van de Nvidia H100 GPU’s in IBM Cloud markeert een belangrijke mijlpaal in de strategie van het bedrijf om te concurreren in de markt van AI-services in de cloud, hoewel de daadwerkelijke impact van deze update op hun concurrentiepositie nog te bepalen valt.

via: DCD

Scroll naar boven