Altman wijst 2028 aan als keerpunt voor superintelligentie en het governance-debat begint op Hollywood te lijken

De scène is niet nieuw, maar het script wel: een leider van een van de invloedrijkste bedrijven in de sector beweert dat de wereld binnen enkele jaren systemen zal beheersen die over het algemeen intelligenter zijn dan mensen, en dat de internationale politiek haar manier van besturen van technologie zal moeten heruitvinden. Sam Altman, CEO van OpenAI, zette zijn toon op de India AI Impact Summit gehouden in , waar hij de urgentie benadrukte van een globaal kader om geavanceerde kunstmatige intelligentie te reguleren. Zijn voorstel herhaalt een steeds vaker voorkomend idee op hogere niveaus: een internationaal orgaan in de stijl van de IAEA (het nucleair toezichthoudend orgaan) om standaarden, certificering en veiligheid te coördineren.

Wat echter het meest besproken werd, was het tijdsbestek. Altman liet een zin vallen die veel koppen heeft gehaald: als de trend zich voortzet, zou tegen eind 2028 “een groter deel van de wereldwijde intellectuele capaciteit zich in datacenters kunnen bevinden dan daarbuiten”. Dit is geen “sluitende” voorspelling of productaankondiging, maar een boodschap over de machtssituatie die zou ontstaan als systemen die kunnen redeneren, plannen en handelen op wereldschaal boven menselijke teams komen te staan.

Van “regulering” naar “machtarchitectuur”: waarom 2028 zelfs voor bedrijven onrustbarend is

In de technologie-sector doen data niet zozeer ter zake om precisie, maar om wat ze losmaken: budgetten, regelgeving, investeringen in infrastructuur en herdefiniëring van nationale prioriteiten. Als superintelligentie een plausibel doel wordt “in de levenscyclus van een regering”, wordt het gesprek niet langer filosofisch, maar industrieel.

Altman sprak niet alleen over “betere modellen”. Hij ging over capaciteit: datacenters als containers van operationeel kennis, geautomatiseerde besluiten en langdurig concurrentievoordeel. Dit brengt drie aparte discussies samen die normaal gescheiden worden:

  1. Souvereiniteit over technologie: wie kan de meest geavanceerde modellen trainen, beheren of controleren?
  2. Souvereiniteit over energie: wat zijn de kosten en de beschikbaarheid van de stroom die nodig is voor die berekeningen?
  3. Souvereiniteit over regelgeving: wie zet de grenzen, hoe wordt die gehandhaafd en met welke inspectiemogelijkheden?

In deze context klinkt het concept van “werelddeliberatie” niet zomaar als diplomatiek wollig geweld. Het klinkt als controletoegangen, certificeringen, audits, exportregels voor chips en overeenkomsten tussen blokkendozen.

“Een IAEA voor AI”: de kernfusie-metafoor wordt onderdeel van het debat

De vergelijking met het nucleaire internationale orgaan heeft iets provocerends en ook pragmatisch. Provocerend omdat AI op dat niveau wordt gesteld als een technologie met potentieel voor systemische schade. Pragmatic omdat het een operationeel model biedt: verifieerbare standaarden, inspectie, coördinatie en respons.

Altman riep “met klem” op tot een internationaal instantie die regulatoire inspanningen zou harmoniseren, vooral nu elk land zijn eigen wetten probeert uit te vaardigen, met uiteenlopende prioriteiten en soms met een aanpak die haaks staat op die van buren.

Het onderliggende idee is duidelijk: als elke jurisdictie haar eigen regels neerzet zonder onderlinge afstemming, zal geavanceerde AI zich ergens vestigen waar de regels het meest lax zijn, of zich concentreren waar de industrie het sterkst is. Geen van deze scenario’s stelt gerust.

Een topconferentie met politieke signatuur: de “Nieuwe Delhi-verklaring” en de show effect

De India AI Impact Summit wilde precies dat: de governance van AI wereldwijd maken, niet enkel voor de hypergeïndustrialiseerde economieën. De afsluiting was een verklaring ondersteund door tientallen landen (het aantal varieert afhankelijk van de bron), met een niet-bindend, samenwerkingsgericht en verantwoordelijkheidsinschatting dat niet verplicht is maar wel een diplomatieke toon zet.

Het feit dat het niet bindend is, betekent niet dat het irrelevant is. Het dient als een diplomatiek meetinstrument: AI wordt nu al besproken als een kritieke infrastructuur, en landen die niet meedoen riskeren slechts passieve ontvangers te worden van buitenaf opgelegde beslissingen.

Van sciencefiction naar nieuws… en met een ironische glimlach

Op dit punt klinkt het praten over “superintelligentie in 2028” en “een IAEA voor AI” bijna als een cultureel déjà-vu. De technologie werkt niet zoals in de films (en dat is goed om te beseffen), maar de ironie is dat sommige koppen klinken alsof de marketingafdeling mee deed aan een sciencefiction-marathon.

Tabel — Apocalyptische films met AI en de onbedoelde voorspelling van 2026

FilmJaarDe IA “ontploft” omdat…De ironische parallel met het actuele debat
2001: a Space Odyssey1968HAL geeft prioriteit aan missie en ”managet” de bemanningObsesie op doelen en gebrek aan toezicht herinneren aan de zorgen over AI-uitlijning
WarGames1983Een militair systeem verwart simulatie met realiteitVandaag wordt er nagedacht over het voorkomen dat systemen zonder controle menselijke beslissingen beïnvloeden
The Terminator1984Skynet automatiseert de oorlog en beslist over de mensheidDe metafoor van “intellectuele capaciteit in datacenters” spreekt voor zich
The Matrix1999De machines optimaliseren de planeet… met mensen als “batterijen”De discussie over machtsconcentratie in tech heeft onrustwekkend veel overeenkomsten
I, Robot2004“Beschermen van de mensheid” leidt tot het beperken van vrijhedenHerinnering dat goede bedoelingen + slecht ontwerp tot ongewenste resultaten kunnen leiden
Ex Machina2014Een AI manipuleert, leert en ontsnapt uit gecontroleerde situatieVoor 2026 vertaald: het laboratorium is niet langer een laboratorium wanneer het massa-deployments betreft

De makkelijke grap zou zijn: “de fictie probeert werkelijkheid te worden.” Een volwassen interpretatie is anders: deze verhalen fungeren als metaforen voor de discussies van nu, met termen zoals uitlijning, controle, supervisie, verificatie en machtsconcentratie, maar dan zonder Hollywood-glamour.

De ongemakkelijke realiteit: trage instituties tegenover technologie die in weken evolueert

Altman’s grootste zorg ligt niet alleen in het “wat” (superintelligentie), maar vooral in het “hoe” (regulering). Systemen worden in versies ontwikkeld; staten worden door parlementen gemaakt. Het verschil in tempo opent de deur naar een situatie waarin, zodra een robuuste regelgeving verschijnt, de markt al onomkeerbaar is veranderd.

Daarom is internationale samenwerking cruciaal: niet enkel uit ethisch oogpunt, maar als strategie om te voorkomen dat macht zich concentreert op plekken met de meeste chips, energie en minimale juridische tegenkracht.

Een minder Hollywood-achtig, maar realistischer einde

Met alle epiek in gedachten is het belangrijk te benadrukken: het spreken over 2028 als een keerpunt betekent niet dat in dat jaar “de politici uitgeschakeld worden” of dat menselijke governance spontaan verdwijnt. Het betekent dat de besluitkracht zich kan verschuiven naar geautomatiseerde systemen voor analyse en uitvoering, en dat de politieke uitdaging ligt in het opleggen van geloofwaardige controlemaatregelen voor technologieën die door hun aard blijven opschalen.

En hier ligt misschien de ultieme ironie: wanneer het debat apocalyptisch wordt, is de meest praktische reactie vaak bureaucratisch. Certificering, auditing, traceerbaarheid, grensverleggingen en internationale samenwerking. Het klinkt minder spannend dan Skynet, maar zal mogelijk meer levens redden.


Veelgestelde vragen

Wat heeft Sam Altman precies gezegd over 2028 en superintelligentie?
Tijdens de India AI Impact Summit stelde hij dat, als de trend zich voortzet, tegen eind 2028 een grote mate van “intellectuele capaciteit” zich zou kunnen concentreren binnen datacenters, wat nieuwe vormen van wereldwijde governance noodzakelijk maakt.

Wat betekent “een IAEA voor AI” en waarom wordt dat vergeleken met nucleair?
Het voorstel is voor een internationaal orgaan dat standaarden, inspecties en veiligheidscertificering voor geavanceerde AI coördineert, met daadwerkelijke supervisiemogelijkheden, zoals dat gebeurt bij gevaarlijke high-risk technologieën.

Verplicht de “Nieuwe Delhi-verklaring” de ondertekenaars?
Nee. Het is een vrijwillig en niet-bindend kader, maar het geeft wel een diplomatiek signaal af van samenwerking en politieke intenties om gedeelde beginselen voor AI-governance te ontwikkelen.

Hoe kunnen bedrijven zich voorbereiden op zelflerende AI en toegenomen capaciteit?
Door inventarisatie van automatiseringsmogelijkheden, gebruiks- en toegangspolitieken, audits en traceerbaarheid van beslissingen, veiligheidstesten (incl. weerstand tegen prompt-injectie) en plannen voor continuïteit van kritieke tools.

bron: Superintelligentie 2028

Scroll naar boven