In de markt voor Kunstmatige Intelligentie ligt de strijd niet langer alleen in het trainen van het beste model, maar vooral in het verkrijgen van de juiste infrastructuur die dit mogelijk maakt. Nvidia speelt hier opnieuw een strategische zet met een voorstel dat, vanwege zijn kracht en kosten, het moment waarop de sector zich bevindt treffend weergeeft: hun nieuwe rack VR200 NVL72, gekoppeld aan het platform Vera Rubin, wordt geschat op ongeveer 180 miljoen Taiwanse dollar, wat neerkomt op ongeveer 5,7–6,0 miljoen dollar bij huidige wisselkoersen, gebaseerd op toeleveringsketenanalyses in Taiwan.
Dit bedrag, zelfs voor zakelijke standaarden pijnlijk hoog, heeft al voor enige verbaasde blikken gezorgd. Tegelijkertijd dient het ook als herinnering aan een universele regel in elke technologische cyclus: wanneer een leverancier iets in huis heeft dat anderen niet kunnen matchen, of niet op tijd kunnen leveren, wordt prijs meer dan een numerieke waarde; het wordt een machtsmiddel.
Een rack dat niet enkel als “hardware” wordt verkocht, maar als geconcentreerde rekencapaciteit
De VR200 NVL72 is geen standaard server of verzameling kaarten: het is een geavanceerd racksysteem, ontworpen om als regeleenheid te dienen binnen grote AI-clusters. In de praktijk vormt het de “bouwsteen” waarmee uitgebreide pods en trainings- en inferentiesystemen kunnen worden geconstrueerd met steeds hogere dichtheid.
Volgens de beschikbare technische specificaties bevat dit rack 72 Rubin GPU’s en 36 Vera CPU’s. Bovendien beschikt het over een interconnectie- en switchesysteem dat functioneert als een high-performance acceleratiedomein. In termen van prestaties bevindt dit systeem zich op een niveau dat voorheen vrijwel uitsluitend bereikbaar was voor supercomputers: het gaat om ongeveer 3,6 EFLOPS inferentie in NVFP4-standaard, met een aanzienlijke verbetering ten opzichte van eerdere generaties.
Deze sprong is niet alleen in rekenkracht. Ook geheugen en energievoorziening maken een grote stap. Het rack maakt gebruik van HBM4-geheugen in enorme volumes en vereist liquidekoeling en een elektrische infrastructuur die, in de praktijk, vaak betekent dat datacenters aangepast moeten worden om het te huisvesten.
Van 2,9 tot 6 miljoen: de prijsstijging in de “rack-scale” tijdperk
De gerapporteerde prijs van het VR200 wordt niet in de lucht gegrepen. De markt wist al dat voor serieuze AI-systemen veel werd betaald per rack. In Taiwan wordt gespeculeerd dat het eerdere GB200 NVL72-rack rond de 2,9 miljoen dollar kostte, terwijl het GB300-model al naar ongeveer 4,0 miljoen dollar ging. Met het nieuwe, complexere VR200, dat meer integratie en hogere thermische en elektrische eisen stelt, ligt de prijs vermoedelijk tussen de 5,7 en 6,0 miljoen dollar.
Dit cijfer is niet alleen relevant voor de hardwarekosten, maar vooral voor de toegang tot die capaciteit. In een markt waar de vraag naar rekenkracht voor AI nog altijd toeneemt en de beschikbaarheid van kritieke componenten – zoals HBM-geheugen, geavanceerd verpakkingsmateriaal, netwerken en energie – niet altijd gelijke tred houdt, wordt prijs een manier van rationering. Wie kan betalen, krijgt eerder toegang.
De rol van “infrastructuur”: kracht die datacenter opnieuw moet vormgeven
Het kopen van een VR200-rack betekent niet alleen aanschaf van hardware, maar ook het recht om je datacenter opnieuw in te richten zodat dat rack daadwerkelijk past. Sectoranalyses wijzen uit dat de VR200 NVL72 hogere energievraag stelt, met nieuwe eisen aan elektrische architectuur en distributie, en dat vloeibarekoeling onontbeerlijk wordt in het ontwerp.
In dergelijke systemen is de vraag niet langer of de server meer ventilatoren nodig heeft: het is of het gebouw de hogere dichtheid aankan. In dat licht gezien, wordt de prijs van meerdere miljoenen euro’s per rack vanuit een andere invalshoek bekeken: voor grote kopers kan het verschil tussen capaciteit nu en over zes maanden soms meer waard zijn dan de kostprijs van de behuizing zelf.
“Als je dingen hebt die anderen niet kunnen, bepaal je de prijs”: de machtspositie in AI
De gangbare uitspraak in de sector —“als je iets hebt dat anderen niet hebben, zet je de prijs”— vat een dynamiek samen die Nvidia uitstekend benut. Het bedrijf verkoopt niet alleen chips; het duwt de markt richting volledig geïntegreerde oplossingen waarbij de klant een compleet blok koopt: rekenkracht, netwerk, geheugen, koeling, systeemontwerp en validatie.
Deze integratie heeft directe gevolgen: een deel van de waarde verschuift van de serverbouwer of integrator naar diegene die de kerntechnologie controleert. Zakelijk gezien is het een manier om meer marge te vangen en tegelijk het aanbod als een schaars ‘product’ met hoge toetredingsdrempels in te zetten.
De VR200 speelt ook in op een andere trend: AI niet meer zien als een experiment, maar als strategische infrastructuur. In 2026 zijn de kopers van racks tussen de 5,7 en 6,0 miljoen dollar doorgaans grote spelers: hyperscalers, grote platformbedrijven, overheden, defensie en ondernemingen die investeren in grensverleggende modellen of grootschalige inferentie.
De vervelende vraag: hoe groot is de daadwerkelijke vraag naar een rack van 6 miljoen?
De grote vraag is niet of het VR200 duur is (dat klopt), maar hoeveel exemplaren de markt überhaupt blijvend kan afnemen. Volgens Taiwanse toeleveringsanalyses varieert het inschatting van de afzet sterk. Dit komt doordat de prijs- en infrastructuurvereisten het aantal kopers sterk beperken.
Desalniettemin wijst de sectorlogica uit dat zolang rekenkracht de bottleneck voor geavanceerde AI blijft, systemen die prestaties kunnen verhogen en uitrol kunnen vereenvoudigen onverminderd vraag blijven genereren. In dat scenario wordt het VR200 niet enkel gezien als een “rack”, maar als tijdsbesteding: voor training, voor inferentie met minder vertraging, en voor het sneller lanceren van producten dan de concurrent.
En in de praktische AI-economie blijkt dat er kopers zijn die bereid zijn hier flink voor te betalen.
Veelgestelde vragen
Wat is de geschatte prijs van het Nvidia VR200 NVL72 rack?
Volgens marktanalyses in Taiwan ligt de prijs rond de 180 miljoen Taiwanse dollar, wat overeenkomt met ongeveer 5,7–6,0 miljoen dollar. Nvidia publiceert echter geen officiële verkoopprijs.
Wat onderscheidt het VR200 NVL72 van eerdere racks zoals de GB200 of GB300?
De gekoppelde platform Vera Rubin verhoogt de integratie en rekenkracht, met 72 Rubin GPU’s en 36 Vera CPU’s. Daarnaast zijn er verbeteringen in interconnectie, geheugensystemen en ontwerp voor grote schaaloperaties.
Wat zijn de datacentervereisten voor een AI-rack zoals de VR200?
Deze systemen vragen meestal om liquidekoeling, hoge energiedichtheid en een aangepast elektrische infrastructuur. Het gaat niet alleen om de rack zelf, maar vooral om de mogelijkheid om deze stabiel te voeden en te koelen.
Waarom kan Nvidia zo hoge prijzen vragen voor AI-infrastructuur?
Omdat de vraag naar rekenkracht voor AI vaak de beschikbare capaciteit overstijgt en Nvidia een dominante positie heeft in versnellers én geïntegreerde systemen. Wanneer aanbod beperkt is en prestaties strategisch belangrijk, wordt de prijs standvastig gehouden.
