De Onstuitbare Voortgang van Kunstmatige Intelligentie: Energieverbruik van GPU’s Bereikt Nieuwe Hoogtes
Het voortdurende vooruitgang van kunstmatige intelligentie (AI) en de ontwikkeling van nieuwe generaties High Bandwidth Memory (HBM) brengen het energieverbruik van AI-versnellers tot het uiterste. Dit blijkt uit een gezamenlijk rapport van het Korea Advanced Institute of Science and Technology (KAIST) en het TERA-laboratorium, dat een ongekende stijging in de energiebehoeften van high-performance computing-systemen voorspelt.
HBM: De Race naar Ultrarapide en Hoge Capaciteit Geheugen
Tegenwoordig stelt HBM3E technologie versnellingsapparaten zoals de NVIDIA B300 en de AMD MI350 in staat om tot 288 GB aan hoogbandbreedtegeheugen te bereiken. De volgende generatie, HBM4, zal deze limiet verhogen naar 384 GB voor NVIDIA (Rubin-serie) en 432 GB voor AMD (MI400-serie), met verwachte lanceringen in het komende jaar.
De echte revolutie komt met HBM5, HBM6 en HBM7, waarvan de prognoses astronomische capaciteiten beloven: HBM5 kan tot 500 GB bereiken, HBM6 tussen de 1,5 en 1,9 TB, en HBM7 tot 6 TB per versneller. Dit vertegenwoordigt een kwalitatieve sprong voor generatieve AI-toepassingen, big data en wetenschappelijke simulaties.
GPU’s van de Volgende Generatie: Op Weg naar 15.000 W per Kaart
Het rapport verwijst naar de spectaculaire stijging van het energieverbruik van GPU’s voor AI. Bijvoorbeeld, de toekomstige NVIDIA Rubin GPU – die in 2026 zal verschijnen – heeft een chipverbruik van 800 W, waarbij de complete kaart, uitgerust met HBM4 en een dubbele chipintegratie, 2.200 W kan bereiken. Huidige AMD MI350-modellen naderen al 1.400 W in systemen met vloeistofkoeling.
Op middellange termijn zal de NVIDIA Feynman GPU (verwacht in 2029) stijgen tot 900 W in de kern en 4.400 W voor de volledige kaart, met vier chips en HBM5 om een bandbreedte van 48 TB/s te bieden.
De prognoses voor het komende decennium wijzen zelfs nog hoger: in 2032 kan een versneller op basis van 4 chips met HBM6 6.000 W benaderen, en tegen 2035 kan een hypothetische kaart met 8 chips, 32 modules van HBM7 en meer dan 1 TB/s bandbreedte meer dan 15.000 W overschrijden.
Een Energie-uitdaging voor Datacentra
De exponentiële groei van het energieverbruik van GPU’s voor AI vormt een serieuze uitdaging voor datacentra, die mogelijk eigen energie-infrastructuren, zoals nucleaire centrales of speciale hernieuwbare energiebronnen, nodig hebben om deze systemen van stroom te voorzien. Het verbruik van een enkele kaart van 15.000 W staat gelijk aan dat van een gemiddeld Spaans huishouden gedurende meerdere dagen.
Volgens experts kan het huidige groeimodel onhoudbaar zijn, tenzij er innovaties in efficiëntie en architectuur plaatsvinden.
Is deze Toekomst Leefbaar?
Het rapport eindigt met een reflectie: "Als de technologische evolutie deze weg blijft volgen, zal elk datacentrum zijn eigen energiecentrale nodig hebben." De industrie staat voor de uitdaging om de brute kracht die AI vereist te balanceren met energie-efficiëntie en duurzaamheid, die cruciaal zijn voor de digitale toekomst.
Bronnen: MyDrivers, KAIST, TERA Lab, Fast Technology, NVIDIA, AMD