NVIDIA herziet Vera Rubin om de toeleveringsketen te beveiligen

NVIDIA presenteert sinds maanden Vera Rubin als het volgende grote platform voor het tijdperk van künstelijke intelligentie (AI), en houdt het pad officieus vast: het bedrijf bevestigt dat Vera Rubin NVL72 al in volledige productie is en dat systemen gebaseerd op deze generatie vanaf de tweede helft van 2026 geleidelijk aan zullen verschijnen, samen met haar partners. Daarnaast heeft NVIDIA uitgelegd dat de nieuwe architectuur steunt op een mondiaal ecosysteem van meer dan 80 partners en op een gediversifieerde toeleveringsketen om haar rack-scale systemen op de markt te brengen.

Toch begint onder dat publieke pad een minder transparante en veel onthullendere realiteit naar voren te komen over hoe de huidige AI-infrastructuur wordt opgebouwd. Volgens een recent rapport van DIGITIMES, gebaseerd op bronnen uit de toeleveringsketen van passieve componenten, is het ontwerp van de compute tray van Vera Rubin nog niet volledig afgerond, ondanks dat de platform op productie gericht is voor het derde kwartaal. Volgens hetzelfde rapport reageren de revisies op een agressievere strategie voor leveranciersdiversificatie en de wens om afhankelijkheid van een enkele bron voor kritieke onderdelen te verminderen. Met andere woorden, NVIDIA verfijnt niet alleen haar technische ontwerp: ze hertekent ook haar fabricage- en bevoorradingsstrategie voor de volgende generatie systemen.

Deze nuance is relevanter dan het op het eerste gezicht lijkt. Vera Rubin NVL72 is geen alledaags serverinstrument, maar een platform van enorme complexiteit. NVIDIA specificeert dat elke rack 72 Rubin GPU’s, 36 Vera CPU’s, 18 compute trays en 9 NVLink-switching trays bevat, met in totaal ongeveer 1,3 miljoen componenten. Het bedrijf pronkt ermee dat de compute trays van Vera Rubin volledig opnieuw zijn ontworpen ten opzichte van Blackwell, met een interne architectuur die gericht is op het versnellen van montage en het vereenvoudigen van onderhoud en service. Wanneer een systeem van zo’n omvang nog steeds wijzigingen aanbrengt in zijn Bill of Materials (BOM) vóór massale uitrol, is dat geen oppervlakkige cosmetische verandering: het beïnvloedt levertijden, validatie, elektrisch rendement en de daadwerkelijke schaalbaarheid zonder verrassingen.

Het probleem is niet langer alleen het ontwerpen van de beste rack

De meest interessante interpretatie van deze mogelijke herziening ligt niet alleen in het risico op een tijdelijke vertraging, maar in de wijziging in prioriteiten die wordt gesuggereerd. Jarenlang lag de focus bij grote AI-systemen op GPU’s, HBM-geheugen of interconnecties. Maar nu de markt rijpt, wordt de veerkracht van de toeleveringsketen bijna net zo belangrijk als de brute prestatie. NVIDIA erkent dat impliciet door te benadrukken dat ze een wereldwijd netwerk van partners heeft en dat ze inzet op een integratie van compute, netwerk, opslag, energie en koeling om de beschikbaarheid te maximaliseren en de tijd tot productie te verkorten.

In dat kader past ook de opvallende informatie uit het Aziatische rapport: Panasonic SP-CAP, een soort aluminiumpolymere condensator met een sterke aanwezigheid in veeleisende toepassingen, zou uiteindelijk niet zijn gebruikt in de compute tray van Vera Rubin. Panasonic presenteert zijn SP-CAP-serie wel als geschikt voor constante en zware belasting in AI-servers, switches, routers en basisstations, en beveelt lange levensduurseries aan voor dergelijke omgevingen. Maar precies die specialisatie lost niet het probleem op dat NVIDIA nu meer zorgen baart: de afhankelijkheid van één leverancier of een beperkt aantal bronnen. Als een specifiek onderdeel te afhankelijk wordt van één leverancier, kan het technische voordeel niet opwegen tegen het industriële risico.

De alternatieven die volgens de bronnen steeds meer gewicht krijgen, zijn hoog-capacitantie MLCC’s (Multi-Layer Ceramic Capacitors). Een minder zichtbaar component voor het grote publiek, maar steeds crucialer in de stroomvoorziening van AI-elektronica. Openbare signalen tonen dat de markt onder spanning staat. Samsung Electro-Mechanics verklaart dat AI-servers tussen de 10 en 15 keer meer MLCC’s gebruiken dan algemene servers, en benadrukt dat de vraag zich verschuift naar zeer hoge capaciteit en voltage-MLCC’s. Murata heeft dit jaar bovendien een technische handleiding uitgebracht voor het optimaliseren van de elektrische voeding in AI-servers en onderstreept dat stabiliteit van de stroomtoevoer een eerste prioriteit is in de nieuwe generatie datacenters.

Condensators worden onderdeel van de AI-oorlog

Wat aanvankelijk leek te gaan om secundaire engineeringzaken, begint nu een strategische en economische dimensie te krijgen. Murata erkende in haar kwartaalcijfers over het derde fiscale kwartaal van 2026 dat de vraag naar AI-servers “zeer krachtig” is, dat klantondersteuning nu belangrijker wordt dan prijs, en dat de productiecapaciteit tussen de 90 en 95 procent wordt benut. Het bedrijf gaf toe dat in 2026 de grote vraag zal zijn: hoeveel kan er worden geproduceerd en in hoeverre kan de vraag worden beantwoord, met de mogelijkheid dat de capaciteit ontoereikend blijft of dat de levering niet tijdig plaatsvindt.

Deze context verklaart waarom een wijziging in onderdelen voor Vera Rubin meer inhoud heeft dan alleen fabricage-kwesties. In steeds densere AI-platformen wordt de stroomelectronica kritischer, en de MLCC’s veranderen van onopvallende onderdelen in essentiële factoren voor kosten, levering en schaalbaarheid. DIGITIMES waarschuwde al in december 2025 dat MLCC’s een van de sterkst stijgende kostenposten worden binnen de BOM van AI-servers, alleen nog onder GPU’s en geheugen. TrendForce signaleert in 2026 een verscherping van de markt, met mogelijke prijsstijgingen en verhoogde druk op fabrikanten zoals Murata en Samsung Electro-Mechanics.

Dit alles betekent niet automatisch dat Vera Rubin grote vertragingen zal oplopen of zichtbaar in de markt zal verschijnen. NVIDIA beweert nog steeds dat de systemen in de tweede helft van 2026 beschikbaar zullen zijn, en haar openbare roadmap wijst voorlopig niet op een officieel gewijzigde planning. Maar het schetst wel een betrouwbaarder, ongemakkelijker beeld: de revolutionaire AI-platformen van de toekomst zijn niet alleen afhankelijk van geavanceerde chips en grote aankondigingen. Ze worden mede gevormd door duizenden discrete beslissingen over wie wat levert, met hoeveel ruimte voor manoeuvre en hoe te reageren als een onderdeel uitvalt of een knelpunt wordt.

Met andere woorden: Vera Rubin test niet alleen NVIDIA’s vermogen om prestaties te blijven opschalen, maar ook haar capaciteit om steeds complexere systemen te industrialiseren zonder te worden gevangen door te nauwe afhankelijkheden. Als het prijskaartje van die veerkracht is dat het ontwerp tot het laatste moment moet worden herzien, dan accepteert de markt dat wellicht. In het big-wattage-tijdperk van AI lijkt het diversifiëren van leveranciers meer dan een inkoopstrategie: het wordt onderdeel van het productontwerp.

Veelgestelde vragen

Heeft NVIDIA een vertraging van Vera Rubin bevestigd vanwege wijzigingen in de compute tray?
Nee. NVIDIA blijft officieel bevestigen dat Vera Rubin NVL72 in productie is en dat systemen gebaseerd op deze platform in de tweede helft van 2026 beschikbaar zullen zijn. Tot nu toe zijn er enkel supply chain-rapporten die wijzen op ontwerprevisies en mogelijke aanpassingen in enkele leveringen.

Waarom zijn MLCC’s zo belangrijk in een AI-server?
Omdat ze de elektrische stroomtoevoer stabiliseren in systemen met zeer hoge consumptie en immense dichtheid van de verwerking. Samsung Electro-Mechanics benadrukt dat AI-servers tussen de 10 en 15 keer meer MLCC’s gebruiken dan conventionele servers, en Murata focust haar technische strategie op dit stroomvoorzieningsvraagstuk.

Wat maakt Vera Rubin bijzonder ten opzichte van eerdere generaties?
NVIDIA presenteert het als een volledig herontworpen rack-scale systeem, met 72 GPU Rubin, 36 CPU Vera, 18 compute trays en 9 NVLink-schijven per rack, inclusief een interne architectuur die gericht is op het vereenvoudigen van montage en onderhoud, in vergelijking met Blackwell.

Kan de diversificatie van leveranciers het schema van een AI-platform beïnvloeden?
Ja. Het wijzigen van onderdelen of het openen van het ontwerp voor meerdere leveranciers kan de veerkracht op middellange termijn versterken, maar brengt ook uitdagingen met zich mee zoals validatie, specificatieaanpassingen en revisie van de BOM, wat de voorbereidingsfase drukt. Dat zien we terug in de rapporten over Vera Rubin.

via: Jukan

Scroll naar boven