AWS erkent dat het de Nvidia A100 niet verwijdert: tekorten aan GPU verlengen de levensduur van “oude” hardware in de cloud

Amazon Web Services (AWS) heeft een waarheid onder woorden gebracht die veel klanten al maandenlang stilzwijgend ervaren: wanneer de vraag naar GPU’s de aanbod overstijgt, wordt de technologische planning geen wetmatigheid meer. Volgens de CEO van AWS, Matt Garman, blijft het bedrijf servers met Nvidia A100 gebruiken — een GPU die al in 2020 wordt gepresenteerd — en verzekert hij dat geen GPU’s zijn verwijderd. Dit komt onder andere doordat de beschikbare capaciteit nog steeds niet toereikend is om aan de marktbehoefte te voldoen.

Garman lichtte dit toe tijdens een gesprek met Jeetu Patel, President en CPO van Cisco, tijdens een recent industryevent. Zijn conclusie was helder: de druk op capaciteit blijft hoog, waardoor ook de “oude” chips in demand blijven, tot het punt dat AWS bevestigt volledig uitverkocht te zijn aan A100 gebaseerde instances. Dit onderstreept een onderliggende verandering: de cloud wordt niet meer uitsluitend gedreven door vernieuwing, maar door gebruik en beschikbaarheid.

Een teken van onze tijd: hardware wordt niet gedegradeerd zolang het nog nut heeft

In de wereld van de cloud is “hardware verwijderen” geen sentimentele kwestie: het is meestal een rationele afweging tussen operationele kosten, energie-efficiëntie, prestatie-dichtheid en ondersteuning. Maar Artificial Intelligence heeft deze balans veranderd. De explosie in training en inferentie, samen met de adoptie van steeds grotere en duurdere modellen, zorgt ervoor dat elke GPU die nog rendabel resultaten kan leveren relevant blijft.

Hoewel de A100 een generatie ouder is dan H100/H200 of recente architecturen, blijft het een waardevol stuk hardware voor veel toepassingen: van intensieve inferentie en datastromen tot “voldoende” training voor teams die niet de nieuwste technologie nodig hebben. En wanneer de alternatieven zijn wachten, extra betalen of herontwerpen, is de praktische keuze vaak eenvoudig.

Google en hun TPU’s: zeven tot acht jaar 100% benutting

Het verhaal van AWS wordt ondersteund door wat Google eerder al aangaf. Amin Vahdat, Vice President en hoofd van AI en infrastructuur, stelde dat het bedrijf zeven generaties TPU in productie heeft, met hardware die al zeven tot acht jaar meegaat en nog steeds voor 100% wordt gebruikt. Het opvallende is dat niet alleen GPU’s worden uitgerekt: ook het eigen silicium wordt langer in gebruik genomen wanneer de vraag toeneemt en continuïteit van platformen gewenst is.

In markttermen doorbreekt dit een mythe: niet altijd wint degene die het snelst overstapt op de nieuwste chip, maar degene die het langst maximale efficiëntie haalt uit de bestaande hardware.

Niet alles draait om vraag: precisie blijft cruciaal in HPC

Wat het meest opviel aan Garman’s commentaar was niet alleen dat ze nog steeds A100 gebruiken, maar vooral de technische reden waarom sommige klanten niet automatisch willen migreren naar nieuwere generaties. AWS’s CEO gaf aan dat de industrie grote winsten boekt door de precisie te verlagen (minder bits, meer schijnbare prestatie) bij veel AI-taken. Maar dit geldt niet voor alles.

Volgens hem kunnen sommige gebruikers geen overstap maken naar nieuwere architecturen omdat ze werken met HPC-achtige berekeningen waar numerieke precisie essentieel is. Bij dergelijke werkzaamheden — simulaties, wetenschappen, engineering, kwantitatieve finance, fysisch modelleren — is het verlies van precisie geen “trade-off”: het kan gewoon een fout betekenen. Met andere woorden: de race om AI te versnellen door lagere precisie leeft naast een wereld waarin exactheid onlosmakelijk is.

Deze botsing van eisen verklaart waarom oudere hardware nog altijd in gebruik is. Het dient niet alleen, het presteert soms beter voor een bepaald segment van de markt.

Prijsdaling in 2025: optimaliseren van afgeschreven hardware, volumegericht concurreren

Ook AWS hintte naar een strategisch patroon: in juni 2025 kondigde het bedrijf een prijsverlaging aan voor toegang tot instances met Nvidia H100, H200 en A100, met een vermindering van 33% op de on-demand prijs van A100 instances in de P4d- en P4e-series.

Meer dan de cijfers illustreert dit dat wanneer een platform over waardevolle capaciteit beschikt die al is afgeschreven en betaalbaar is, het verlagen van prijzen vraag kan stimuleren en de benutting verhogen. In een markt waarin GPU’s onder druk staan, is het aantrekkelijk maken van “oude” generaties een slimme strategie om vraag op te vangen zonder afhankelijk te zijn van de nieuwste hardware.

Wat dit betekent voor bedrijven en ontwikkelaars

Voor klanten betekent dit minder een spectaculaire evolutie en meer een praktische aanpak: het plannen van AI-infrastructuur in de cloud houdt niet enkel in dat je de nieuwste GPU kiest. Belangrijker is dat er wordt gekeken naar:

  • Werkelijke beschikbaarheid (wat is er vandaag te verkrijgen, niet alleen in het assortiment).
  • Compatibiliteit en reproduceerbaarheid (modellen, drivers, libraries, precisie).
  • Totaalkosten (uurtarief, maar ook wachttijd, migratie en herontwerp).
  • Afhankelijkheidsrisico’s (is er een plan B als bepaalde instances opraakt?).

Voor cloudproviders is hetzelfde helder: in het tijdperk van AI is hardware verwijderen puur gebaseerd op planning niet meer haalbaar. De prioriteit ligt bij het in stand houden van capaciteit, want de vraag kent geen gerechtigheid.


Veelgestelde vragen

Waarom zou AWS nog steeds Nvidia A100 gebruiken terwijl er nieuwere GPUs beschikbaar zijn?
Omdat de vraag naar GPU’s nog steeds groter is dan het aanbod, en veel klanten nog steeds goede resultaten behalen met A100, vooral als de kosten en beschikbaarheid gunstiger zijn.

Welke workloads profiteren van het gebruik van “oude” hardware?
Inferentie, middelgrote training, dataverwerking en bepaalde werkzaamheden waar stabiliteit, compatibiliteit of kosten belangrijker zijn dan de nieuwste generatie.

Waarom kunnen sommige klanten niet upgraden naar nieuwere GPU’s?
In HPC-achtige toepassingen is numerieke precisie vaak cruciaal. Als een architectuur of configuratie gericht is op snelheid met minder precisie, is die minder geschikt voor gevoelige simulaties of berekeningen.

Wat betekent de prijsdaling van 33% voor A100 instances (P4d/P4e)?
AWS probeert deze capaciteit aantrekkelijker te maken om een hoge benutting te behouden, zelfs als de nieuwste GPU’s schaars of prijzig zijn.

vía: datacenterdynamics

Scroll naar boven