Rackspace Technology en AMD hebben een memoranda van overeenstemming ondertekend om een bedrijfsklare Artificial Intelligence-infrastructuur te creëren, gericht op kritieke workloads, gereguleerde sectoren en omgevingen waar veiligheid, soevereiniteit en operationele verantwoordelijkheid niet achteraf als een extra laag worden toegevoegd. Het akkoord voorziet in een Enterprise AI Cloud, beheerd op basis van AMD Instinct GPU’s en AMD EPYC-processors, met Rackspace als operationele partner die verantwoordelijk is voor de volledige stack, van hardware tot inferentie en productieagents.
De aankondiging komt op een moment dat veel bedrijven de overstap maken van experimenten met taalmodellen naar het implementeren van AI in productie, zonder controle te verliezen over data, kosten, compliance en beschikbaarheid. In de afgelopen twee jaar is de markt voornamelijk gericht geweest op het huren van GPU-capaciteit per uur. Rackspace en AMD stellen een alternatieve aanpak voor:Dedicated infrastructure, beheerd en bestuurd, met een leverancier die meer verantwoordelijkheid neemt voor integratie en dagelijks beheer.
De kleine letters tellen ook. Het gaat nog niet om een definitief contract voor het implementeren van een specifieke platform, maar om een Memorandum of Understanding (MoU), een potentieel samenwerkingskader tussen beide bedrijven. Rackspace waarschuwt in haar eigen communicatie dat er geen definitieve overeenkomsten zijn gesloten en dat niet gegarandeerd kan worden dat alle voorziene voordelen gerealiseerd worden. Deze nuance onderstreept dat het een strategische ontwikkeling betreft, geen volledig uitgewerkte kant-en-klare oplossing vanaf dag één.
Van GPU-huur naar een bedrijfsklare AI met één verantwoordelijke
De kern van Rackspace’s gedachtegang is helder: het dominante model verplicht bedrijven om GPU-capaciteit te huren en de complexiteit van integratie, veiligheid, governance, schaalbaarheid en verantwoordelijkheid te dragen. Voor bedrijven met gevoelige workloads kan dat model tekortschieten. Het is niet genoeg om alleen acceleratoren te hebben; ze moeten geïntegreerd worden in een operationeel kader dat duidelijk maakt waar data zich bevindt, wie toegang heeft, hoe processen worden geauditeerd, welk serviceniveau wordt geboden en wat er gebeurt bij een systeemfout.
Het akkoord met AMD probeert dat gat te vullen via vier kerncapaciteiten. De eerste is Enterprise AI Cloud, een beheerde privé- en hybride cloud op basis van AMD Instinct en AMD EPYC, ontworpen voor bedrijven die soevereiniteit, naleving en operationeel beheer nodig hebben. De tweede is Enterprise Inference Engine, een inference-runtime met context, sessiegeschiedenis en domeinkennis, zodat modellen en agents consistent kunnen functioneren in productieomgevingen.
De derde component is Inference as a Service, een aanbod van dedicated en beheerde AMD Instinct GPU’s met tools voor inferentie en fine-tuning, als alternatief voor het generieke GPU-huren. De vierde is Bare Metal AMD Instinct, bedoeld voor klanten die fysieke isolatie, voorspelbare prestaties en directe hardwaretoegang nodig hebben voor zeer aangepaste training- of inferentieworkloads.
Het verschil met standaard cloudproviders ligt niet alleen in de hardware. Het zit in de operationele belofte. Rackspace wil de enige verantwoordelijke blijven voor het geheel, met SLA’s, hardwareondersteuning, governance en kostencontrole. Voor sectoren als financiën, gezondheidszorg, overheidsdiensten, telecom en geavanceerde productie kan dat aantrekkelijker zijn dan het overzetten van gevoelige data naar generieke AI-diensten zonder duidelijke verantwoordelijkheid.
AMD zoekt meer ruimte tegenover NVIDIA’s dominantie
Voor AMD versterkt het akkoord haar positie in bedrijfsklare AI-infrastructuur. NVIDIA behoudt een dominante marktpositie in accelerators, software en ecosysteem, vooral onder hyperscalers, maar AMD probeert terrein te winnen met Instinct, EPYC en ROCm. De boodschap van AMD de afgelopen maanden is consistent: een open, efficiënt alternatief bieden voor bedrijven die AI willen inzetten op hun eigen datacenters of private clouds.
De AMD GPU’s van de serie MI300X richten zich al op generatieve AI en High Performance Computing (HPC), met grote geheugencapaciteit en hoge bandbreedte. Recent lanceerde AMD de serie MI350, inclusief de MI350P PCIe, bedoeld voor het implementeren van generatieve en agtische AI binnen bestaande infrastructuur, zonder complete datacenter-herontwerpverplichtingen. Dit is geschikt voor bedrijven die niet willen afhangen van gesloten clusters of lange hardware-vernieuwingscycli.
Ook de rol van EPYC is belangrijk. In veel AI-architecturen wordt vooral naar GPU gekeken, maar de echte prestatie hangt af van het volledige systeem: CPU, geheugen, netwerk, opslag, virtualisatie, veiligheid, orkestratie, observability en software. Rackspace en AMD willen deze combinatie als een volledig operationeel platform aanbieden, niet als een lijst losse componenten.
De overige kern is ROCm, AMD’s open software-stack voor acceleratie. De grootste uitdaging voor AMD ten opzichte van NVIDIA is niet alleen de hardware, maar de volwassenheid van het ecosysteem. CUDA is al jaren de facto-standaard voor ontwikkelaars, frameworks en onderzoeksinstellingen. Voor een aantrekkelijke Enterprise AI Cloud gebaseerd op AMD moet Rackspace veel werk verrichten: integratie, modelvalidatie, toolcompatibiliteit, inferentie-optimalisatie, support en voortdurende operatie.
Governance, soevereiniteit en productieagents
De term “geregisseerd” wordt niet zomaar gebruikt. Bedrijven vragen niet alleen of een model goed presteert, maar of het systeem kan worden geïntegreerd in beleid omtrent security, auditing, permissions, traceerbaarheid en compliance. Dit wordt complexer bij AI-agents, omdat we niet alleen spreken over een enkele query, maar over systemen die stappen kunnen uitvoeren, tools kunnen aanroepen, interne data kunnen raadplegen en taken kunnen automatiseren.
Rackspace stelt dat haar Enterprise Inference Engine context, sessiegeschiedenis en bedrijfspecifieke data kan bewaren tussen queries. Dat verhoogt de bruikbaarheid van agents en modellen in productie, maar vereist ook strenge veiligheid. Bij het bewaren van institutionele geheugen moeten robuuste controlemechanismen worden toegepast: scheiding van klanten, encryptie, audittrail, toegangsbeperkingen, databeheer, verwijderingsbeleid en menselijke supervisie bij kritische processen.
Deze aanpak is met name relevant voor soevereine workloads. In Europa bekijken organisaties welke systemen ze voor AI gebruiken, wie de infrastructuur beheert, welke regelgeving van toepassing is en hoe ze data beveiligen tegen ongewenste toegang. Een Amerikaanse provider zoals Rackspace biedt geen oplossing voor alle soevereine vraagstukken, maar de gedachtegang van private, hybride en gereguleerde clouds vormt een reële vraag: AI voor bedrijfsgebruik kan niet altijd afhankelijk zijn van openbare generieke diensten als data en processen gevoelig zijn.
Er is ook een marktperspectief. Veel klanten willen niet zelf de AI-infrastructuur beheren, maar wel modellen, agents en data met garanties gebruiken. Dit creëert ruimte voor managed service providers die niet enkel op prijs per uur richten, maar op het beheren van operationele complexiteit. Rackspace repositioneert zich hier: niet enkel als hosting of managed cloud-provider, maar als volledige end-to-end operator van bedrijfsklare AI-oplossingen.
Het akkoord met AMD sluit hierbij aan, maar het succes hangt af van de uitvoering. Gereguleerde bedrijven eisen referenties, certificeringen, meetbare prestaties, support, voorspelbare kosten en integratie met bestaande systemen. Als Rackspace het MoU kan vertalen naar volwassen aanbiedingen, met daadwerkelijke implementaties en geloofwaardige SLAs, kan dit een interessante positie in de markt tussen publieke hyperscale-clouds en zelfbeheerde private infrastructuur opleveren.
Samenvattend bevindt de markt voor bedrijfsklare AI zich in een meer volwassen fase. Toegang tot GPU’s alleen is niet meer genoeg. Het gaat steeds meer om governance, verantwoordelijkheid bij falen, data-auditing en het kunnen opereren van modellen en agents zonder dat elke implementatie een maatwerkproject wordt. Rackspace en AMD hebben die behoefte zien aankomen. Nu is het aan hen om te bewijzen dat zij dat daadwerkelijk kunnen omzetten in een volwaardige platformoplossing.
Veelgestelde vragen
Wat hebben Rackspace en AMD aangekondigd?
Ze hebben een memoranda van overeenstemming getekend om een geregisseerde, bedrijfsklare AI-infrastructuur te ontwikkelen op basis van AMD Instinct GPU’s, AMD EPYC-processors en operationeel beheer door Rackspace.
Is het al een definitief commerciële overeenkomst?
Nee, nog niet. Het communiqué vermeldt een MoU, een potentieel samenwerkingskader. Rackspace benadrukt dat er geen definitieve overeenkomsten zijn gesloten en dat de gesprekken nog in een preliminaire fase verkeren.
Hoe verschilt dit van het huren van GPU’s per uur?
De aanpak biedt een dedicated, beheerde en geregisseerde infrastructuur, waarbij Rackspace de volledige stack beheert, in tegenstelling tot het klant-zijn voor integratie, veiligheid en operationeel beheer.
Voor welk type bedrijven is het bedoeld?
Voor organisaties met kritieke of gereguleerde workloads, zoals finance, gezondheidszorg, overheidsdiensten, industrie, telecom en bedrijven die soevereiniteit, compliance, fysieke isolatie en kostencontrole vereisen.
