AMD Toont Nieuwe AI-Infrastructuur op OCP Global Summit 2025
In het kader van de OCP Global Summit 2025 heeft AMD voor het eerst zijn nieuwe platform “Helios” gepresenteerd, een referentieontwerp voor rack-scale infrastructuur voor kunstmatige intelligentie (AI). Dit ontwerp is gebouwd op de nieuwe Open Rack Wide (ORW) standaard, die is ingediend bij het Open Compute Project door Meta. Deze aankondiging is geen geïsoleerd product; het past in de bredere strategie van AMD om zijn filosofie van open hardware “van silicon naar systeem en uiteindelijk naar het rack” te bevorderen, met het doel de adoptie van open, interoperabele en schaalbare architecturen een impuls te geven in het tijdperk van gigawatt datacenters.
Een Geavanceerd Ontwerp voor AI
Het Helios-platform combineert GPU’s uit de AMD Instinct™-familie, EPYC™ CPU’s en de geavanceerde AMD Pensando™ netwerken binnen een dubbele breedte ORW chassis. Dit chassis is ontworpen om te voldoen aan de eisen van kracht, koeling en onderhoud van nieuwe generatie AI-systemen. Daarnaast integreert het normen die de industrie vormgeven, zoals OCP DC-MHS (Data Center – Modular Hardware System), UALink (open interconnectie voor versnellers) en architecturen van het Ultra Ethernet Consortium (UEC), met ondersteuning voor verticale en horizontale open fabrieken.
“Open samenwerking is cruciaal voor het efficiënt schalen van AI,” benadrukte Forrest Norrod, EVP en CEO van het Data Center Solutions Group van AMD. “Met Helios transformeren we open standaarden in deployable systemen: we combineren AMD Instinct, EPYC en open fabrieken om de industrie een flexibele en krachtige platform te bieden die is ontworpen voor de volgende generatie AI-belastingen.”
Open Rack Wide: Een Innovatieve Benadering
De Open Rack Wide (ORW) standaard, voorgesteld door Meta en meegenomen door OCP, definieert een open rack van dubbele breedte dat is geoptimaliseerd voor de elektrische en thermische behoeften van de nieuwste generatie AI-servers. Hierdoor kan ORW:
- Dichte acceleratiesystemen huisvesten met robuustere stroomplannen.
- De liquid cooling vereenvoudigen en de thermische prestaties continu ondersteunen.
- De servicesnelheid verbeteren met eenvoudigere toegang tot modules en een snellere vervangbaarheid.
AMD omarmt ORW als de structurele basis van Helios en combineert dit met een volwassen OCP-catalogus om een gedeeld fundament te creëren waar OEM’s, ODM’s en hyperscalers op kunnen voortbouwen zonder elke component opnieuw te hoeven ontwerpen.
Van Chip naar Rack: Open componenten en Schaalbaarheid
Helios is ontworpen om samen te werken met twee grote schalingpatronen:
- Scale-up: waarbij sterk gekoppelde accelerators binnen chassis worden geplaatst, met UALink die punten tussen GPU’s standaardiseert om lage latentie en hoge bandbreedte te garanderen voor grootschalige training en inferentie.
- Scale-out: waarin meerdere nodes/racks samenwerken in een netwerkomgeving, waarbij het UEC nieuwe generatie Ethernet bevordert voor een hoogwaardig, multi-padnetwerk dat AI-verkeer efficiënt kan afhandelen.
Essentiële Koeling en Ondersteuning
Het ontwerp van AMD legt de nadruk op twee belangrijke operationele aspecten in AI:
- Liquid cooling met snelle disconnectie; noodzakelijke voor GPU’s die meer dan 1 kW aan vermogen genereren.
- Dubbele breedte voor servicability, waardoor er meer ruimte is voor bekabeling en toegang tot modules tijdens onderhoud zonder de prestaties of dichtheid in gevaar te brengen.
Belangrijke Implicaties voor het Ecosysteem
AMD’s inzet voor een open, gestandaardiseerde infrastructuur voor AI brengt verschillende voordelen met zich mee:
- Vermindering van integratiekosten en het voorkomen van lock-in-scenario’s voor operators.
- De creatie van een verbindingspunt tussen verschillende leveranciers en productgeneraties.
- Verbeterde operationele duurzaamheid en efficiëntie, wat essentieel is voor datacenters die te maken hebben met duurzaamheidseisen en elektricititeitsbeperkingen.
Conclusie: Open Standaarden en Duidelijke Richting
Helios is niet slechts een siliconen aankondiging, maar eerder de fysieke context van een volledig open AI-stack: rack, chassis, interconnectie, CPU, GPU en netwerken, gereed om door het ecosysteem verder te worden ontwikkeld. In een snel veranderende technologieomgeving biedt het een gemeenschappelijk fundament dat frictie vermindert en operators in staat stelt zich te onderscheiden waar ze waarde kunnen toevoegen.
Zoals Norrod samenvatte: het gaat erom standaarden om te zetten in deploybare systemen, met de flexibiliteit en prestaties die nodig zijn voor de volgende generatie AI-belastingen. De industrie en de OCP-gemeenschap hebben nu een sterk uitgangspunt.