Lenovo en NVIDIA hebben op CES 2026 (Las Vegas) een idee gepresenteerd dat in de praktijk minder lijkt op een “nieuwe server” en meer op industrialiseringsprojecten voor AI-datacenters: een programma van “AI-fabrieken” op gigavattigniveau, ontworpen zodat cloudproviders en grote operators de overgang kunnen maken van ontwerp naar productie met minder frictie. Hierbij worden reeds gevalideerde componenten gebruikt, lifecycle-diensten aangeboden en wordt sterk ingezet op het versnellen van de “time-to-first-token” (TTFT), een indicator die meet hoe snel een AI-investering resultaten begint te produceren in realistische omstandigheden.
Op het evenement was de boodschap duidelijk: de waarde wordt niet meer alleen gemeten aan de hoeveelheid verbruikte kracht, maar aan hoe snel het wordt omgezet in een operationele dienst. Het bedrijf stelt dat bij veel projecten het knelpunt niet meer uitsluitend het verkrijgen van GPU’s is, maar vooral het herhaalbaar en operationeel maken ervan: energie, koeling, netwerk, opslag, integratie, observability en services.
“Gigafabrieken” voor AI: van technische ruimte naar productielijn
Geen woorden maar daden, bij het noemen van gigavattigniveaus. Het betekent dat het ontwerp van het datacenter zich ontwikkelt tot een soort “fabriek”, waar alles is gericht op opschaling: van elektrische distributie en rack-dichtheid tot logistiek, bouwschema’s en inbedrijfstellingsprocedures. In dit kader biedt Lenovo haar voorstel aan als een snel-deploy-framework (zij spreken van TTFT “binnen weken”), ondersteund door drie pijlers: hybride infrastructuur met vloeistofkoeling (Neptune), toegang tot NVIDIA’s versnelde platformen en een set van services voor operationeel onderhoud.
Deze aanpak is vooral relevant voor de zogenaamde “neo-clouds” voor AI en voor bedrijven die van pilots naar inference- en trainingsdiensten met hoge beschikbaarheid gaan, waarbij elke vertraging van een week miljoenen kan kosten in onderbenutte CapEx.
Twee generaties “rack-scale” als anker: Blackwell Ultra vandaag, Rubin morgen
Het onderzoek wordt gestuurd door “rack-scale” systemen die niet als losse componenten worden verkocht, maar als bouwblokken:
- GB300 NVL72 (van Lenovo): een volledige rack-architectuur met vloeistofkoeling, gepresenteerd als basis voor het snel uitrollen van AI-fabricagetools die klaar zijn voor productie.
- Vera Rubin NVL72 (volgende generatie): NVIDIA positioneert Rubin als haar volgende “rack-scale” platform, bedoeld voor grootschalige training en inference, en voor reasoning en agent-based workloads.
In Rubin is NVIDIA uitgegaan van een hoog geïntegreerd rack-systeem dat zich richt op het minimaliseren van communicatieknelpunten en het ondersteunen van steeds grotere modellen met een gestage datapijplijn. Die integratie versterkt Lenovo’s claim: als het product het rack (of cluster) is, dan is het proces de industrialisatie van het deployment.
Wat betekent dit voor de markt (en de operators)?
Meer dan alleen een hype, wijst alles op een trend die in 2026 verder wordt versterkt: AI op gigavattigniveau wordt niet meer als “servers” gekocht, maar als productiekracht. Dit heeft verschillende gevolgen:
- Gestandaardiseerde configuraties: minder op maat gemaakte “architecturen” en meer herhaalbare templates, waardoor uitbreiding van clusters met minder risico gebeurt.
- Vloeistofkoeling als standaard: bij hoge dichtheden stopt de luchtkoeling niet langer als universele norm. Lenovo promoot Neptune als de koelingsoplossing om de uitrolsnelheid te ondersteunen.
- Operaties onderdeel van het product: monitoring, validatie, acceptatietests, onderhoudsprocedures en supply chain worden net zo strategisch als de GPU zelf.
Lenovo onderbouwt haar verhaal bovendien door het industrialisatieaspect te benadrukken: productie, integratie en wereldwijde services als versnellers van de “time-to-production”. Een belofte die aansluit op de wens van veel providers om de onzekerheid rond massale uitrol te verkleinen.
Kort overzicht: wat is elk onderdeel in een moderne “AI-fabriek”?
| Onderdeel / systeem | Praktisch gezien | Voor welke workload | Waarom belangrijk in een gigafabriek |
|---|---|---|---|
| GB300 NVL72 (Lenovo + NVIDIA) | Een “rack-scale” platform uit de huidige generatie, klaar voor productie | Groot schalen van training/inference, snelle uitbreiding | Vermindert integratietijden: het rack wordt als een operationeel eenheid geleverd |
| Vera Rubin NVL72 (NVIDIA) | Nieuw platform “rack-scale” dat gericht is op next-gen AI | Reasoning, agent-based AI, training en inference op grote schaal | Verhoogt integratie en systeemprestatie; vereist nog serieuzere energie-, netwerk- en koelingsontwerpen |
| Neptune (Lenovo) | Koelings- en thermisch ontwerp met vloeistofkoeling voor hoge densiteit infra | Voert duurzame werking uit bij hoge dichtheid | Als je niet goed koelt, schaal je niet; zonder schaal verliest CapEx-effectiviteit |
De onderliggende boodschap: TTFT als nieuwe KPI voor infrastructuur
Dat TTFT centraal staat in de aankondiging is geen toeval. In een markt waar GPU’s en energie strategische resources zijn geworden, kan het competitieve verschil liggen in wie het hardware snel kan omzetten in een dienst: provisioning, ingebruikname, observability, consistente prestaties en operationele kostenbeheer.
Met andere woorden: Lenovo en NVIDIA bieden “industrial speed” aan. En in 2026, wanneer projecten plannen kennen op tientallen megavolt en de ambitie voert naar gigavolt, wordt die snelheid net zo’n cruciale factor als de siliciumtechnologie zelf.
Veelgestelde vragen
Wat is een “AI-fabriek” en waarom spreken we van gigavattigniveau?
Een manier om datacenters te beschrijven die ontworpen zijn als productieve infrastructuur voor AI (training en inference), waarbij alles — energie, koeling, netwerk, opslag en operaties — wordt gepland voor opschaling. “Gigavattigniveau” verwijst niet naar een enkele kast, maar naar grote complexen met zeer hoog totaalverbruik.
Wat betekent TTFT en waarom is dat relevant voor bedrijven en cloudproviders?
“Time-to-first-token” meet hoe snel een AI-infrastructuur resultaten (tokens) begint te leveren in productie. Het dient als proxy voor de snelheid van uitrol en operationele ROI.
Wat is de rol van vloeistofkoeling in AI-clusters?
Het stelt je in staat om hogere dichtheden en vermogens per rack te ondersteunen met betere thermische stabiliteit. In grootschalige AI-omgevingen wordt koeling vaak de beperkende factor voor schaalvergroting.
Hoe onderscheidt een “rack-scale” aanpak zich van het kopen van losse servers?
Het rack wordt behandeld als een geïntegreerd systeem (computing + netwerken + fysiek en thermisch ontwerp), waardoor onzekerheid vermindert en de implementatie wordt versneld, vooral bij deployment van vele racks.
vía: news.lenovo
