NVIDIA Bevestigt Groei van CPU Grace C1 op COMPUTEX 2025
Taipei. NVIDIA heeft deze week op de COMPUTEX 2025-beurs de toenemende steun voor zijn CPU Grace C1 bevestigd, met name binnen sectoren zoals edge computing, telecom en opslagoplossingen. Dit versterkt hun inzet op een architectuur die zowel hoge prestaties als energie-efficiëntie biedt, afgestemd op de huidige uitdagingen van kunstmatige intelligentie (AI).
De Grace CPU-lijn, die configuraties zoals de krachtige Grace Hopper Superchip en het vlaggenschip Grace Blackwell omvat, toont aanzienlijke verbeteringen in efficiëntie en rekenkracht. Deze vooruitgangen zijn bijzonder relevant voor zware taken zoals het trainen van grote taalmodellen en het uitvoeren van geavanceerde fysieke simulaties.
Een Ontwerp Gericht op Energie-Efficiëntie
De Grace CPU C1, met één processor, trekt speciale aandacht vanwege zijn energie-efficiëntie, die het dubbele is van traditionele CPU’s in gedistribueerde omgevingen met beperkte stroomvoorziening. Deze eigenschap maakt het tot een ideale oplossing voor implementaties op afgelegen locaties, edge-nodes, telecomdatacenters en systemen voor hoge prestaties in opslag.
Onder de fabrikanten die deze technologie in hun platforms integreren, bevinden zich giganten zoals Foxconn, Jabil, Lanner, MiTAC Computing, Supermicro en Quanta Cloud Technology. Dit wijst op een snelle acceptatie van de chip binnen het professionele hardware-ecosysteem.
AI voor Telecom, Energie en Meer
Binnen de telecomsector benadrukt NVIDIA het gebruik van de Grace CPU C1 in zijn Compact Aerial RAN Computer, een systeem dat ook een NVIDIA L4 GPU en een SmartNIC ConnectX-7 omvat. Deze combinatie is ontworpen om gedistribueerde AI in radio-toegangsnetwerken (AI-RAN) mogelijk te maken, waarbij voldaan wordt aan kritische eisen op het gebied van vermogen, prestaties en formaat voor installatie in basisstations.
De Grace CPU is eveneens omarmd door toonaangevende bedrijven in de energie- en technologiesector. ExxonMobil gebruikt het in hun Grace Hopper-platform voor seismische imaging, waardoor het verwerken van grote volumes geologische data wordt versneld. Ondertussen gebruikt Meta dezelfde chip om de efficiëntie van advertentiefilters en -levering te verbeteren, dankzij de hoge snelheid interconnectie NVLink-C2C tussen CPU en GPU.
Bovendien gebruiken supercomputingcentra zoals het Texas Advanced Computing Center en het Nationale Centrum voor Hoogwaardige Computatie van Taiwan (NCHC) de Grace CPU voor onderzoek in AI en wetenschappelijke simulatie.
Vooruitzichten en Volgende Stappen
De Grace-architectuur vormt een stevige stap richting meer duurzame, efficiënte en schaalbare AI-systemen. Met configuraties die zowel extreme prestaties als energiebeperkte omgevingen ondersteunen, streeft NVIDIA ernaar zijn aanwezigheid van datacenters tot aan de rand van het netwerk te consolideren.
De uitrol van op Grace C1 gebaseerde oplossingen zal zich in 2025 blijven uitbreiden, parallel aan nieuwe AI-toepassingen en ontwikkelingen die gepresenteerd zullen worden op NVIDIA GTC Taipei, van 21 tot 22 mei, in het kader van COMPUTEX.
Bron: Nvidia