Titel: OpenAI’s Ambitieuze Toekomst: Een miljoen GPUs en de Krachten van Siliconen Beschaving
OpenAI, het bedrijf achter ChatGPT, is niet alleen bezig met het opbouwen van een onderneming, maar lijkt een heel nieuwe civilisatie van silicium te creëren. Dit wordt benadrukt in de recente uitspraken van CEO Sam Altman, die aankondigde dat het bedrijf voor het einde van 2025 meer dan een miljoen actieve GPUs zal hebben. Een indrukwekkende prestatie, die Altman met een mix van trots en ongebreidelde ambitie deelde op sociale media: “Heel trots op het team, maar nu moeten ze uitzoeken hoe ze dat met 100 kunnen vermenigvuldigen, lol.”
De Era van de Miljoen GPUs
Voor wie niet bekend is: een GPU (grafische verwerkingseenheid) is cruciaal in de raciale kunstmatige intelligentie. Deze componenten maken het mogelijk om modellen zoals GPT-4, DALL·E en Codex te trainen. Terwijl concurrenten zoals Elon Musk’s xAI nog niet verder komen dan 200.000 GPUs, is OpenAI op weg om dat aantal vijf keer te overtreffen.
De reden hiervoor is dat de beperking niet langer in de algoritmes ligt, maar in de hardware. Altman is zich hiervan bewust. In februari erkende hij dat ze het uitrollen van GPT-4.5 moesten vertragen vanwege een tekort aan GPUs. Sindsdien is OpenAI begonnen aan een ongekende uitbreiding, met nieuwe datacenters en strategische partnerships met Microsoft, Oracle en mogelijk Google. Het lijkt meer op een nationale infrastructuur dan op een particuliere onderneming.
Het Monster van Texas
Een van de grootste symbolen van deze expansie is hun mega datacenter in Texas, het grootste ter wereld voor AI, dat momenteel 300 megawatt verbruikt en in 2026 een capaciteit van 1 gigawatt wil bereiken. Dit zou genoeg energie zijn voor een hele stad. Deze groei heeft lokale energiebedrijven in de problemen gebracht, die al wijzen op de technische uitdagingen van het stabiliseren van een netwerk dat zo’n digitale reus van stroom moet voorzien.
Kortom, we staan voor een AI die evenveel energie verbruikt als zware industrie, met een ecologische voetafdruk en een impact op infrastructuur die niet genegeerd kunnen worden.
Het Voorstel van 100 Miljoen GPUs
Het idee om van 1 naar 100 miljoen GPUs op te schalen lijkt absurd… en toch is dit precies wat Altman voorstelt. De economische berekeningen zijn duizelingwekkend: slechts 3 biljoen dollar voor hardware. Maar de ambitie gaat niet alleen om het exact bouwen van dat aantal; het gaat ook om het vinden van alternatieve wegen: gepersonaliseerde chips, efficiëntere architecturen, optische opslag, fotonisch silicium. Alles dat opschalen mogelijk maakt zonder te exploderen.
Het doel is AGI (Artificial General Intelligence), een systeem dat denkt als een mens. En als dit betekent dat we het wereldwijde energiemodel moeten heroverwegen, lijkt OpenAI daartoe bereid.
Computationele Voordelen in de Concurrentiestrijd
In dit nieuwe landschap is infrastructuur de ware differentiator. Het is niet meer voldoende om het beste model te hebben; je moet ook de mogelijkheid hebben om het sneller en op grotere schaal te trainen en uit te rollen dan de rest. Met een miljoen GPUs stelt OpenAI een nieuwe standaard die veel van de sector achter zich laat.
En OpenAI is niet alleen. Meta, Amazon, Google en zelfs Apple zijn allemaal bezig met eigen chips en gespecialiseerde datacenters. De concurrentiestrijd om talent heeft zich verplaatst naar de fysieke ruimte: wie controleert de energie, materialen, silicium en assemblage.
Een Onhoudbare Toekomst?
Wat verontrustend is, is dat dit alles plaatsvindt zonder een brede discussie over de gevolgen. Wie beheert deze middelen? Wat gebeurt er als een bedrijf meer rekenkracht heeft dan veel landen? Waar blijven transparantie, regulering of gelijke toegang?
Met zijn informeel gekleurde toon blijft Sam Altman de grenzen verleggen. Maar wat op het spel staat, is veel meer dan een rond nummer. De miljoen GPUs van OpenAI markeert het begin van een nieuwe fase in de technologische geschiedenis, waarin infrastructuur wordt gelijkgesteld aan macht. En waar AI, ver van abstract te zijn, gemeten wordt in tonnen metaal, megawatt en kubieke meters airconditioning.
De echte vraag is inmiddels niet meer of we een krachtigere AI kunnen bouwen, maar of we deze kunnen — en moeten — vasthouden.
Bron: Nieuws over kunstmatige intelligentie