Menselijke beperkingen bij het identificeren van synthetische inhoud
Een gezamenlijk onderzoek van Microsoft en universiteiten zoals Cornell onthult de menselijke beperkingen bij het identificeren van synthetische inhoud. Ondertussen verhevigt de wereldwijde discussie over visuele desinformatie.
De vooruitgang van generatieve kunstmatige intelligentie vormt een uitdaging die het dagelijks leven van miljoenen mensen beïnvloedt: hoe onderscheiden we het echte van het kunstmatige? Volgens een uitgebreid onderzoek gepubliceerd in mei 2025 door onderzoekers van het AI for Good-laboratorium van Microsoft in samenwerking met Cornell University en andere academische instellingen, slagen mensen er slechts in 62% van de gevallen in om te bepalen of een afbeelding uit de echte wereld komt of gegenereerd is door modellen zoals DALL·E 3, Midjourney v6 of Stable Diffusion XL.
Het onderzoek, getiteld “How good are humans at detecting AI-generated images? Learnings from an experiment” (arXiv:2507.18640), is gebaseerd op meer dan 287.000 evaluaties van afbeeldingen uitgevoerd door 12.500 deelnemers wereldwijd via de interactieve online quiz Real or Not Quiz. Elke gebruiker zag een willekeurige selectie afbeeldingen — afkomstig uit een bank van 350 rechtenvrije foto’s — samen met andere door AI gegenereerde beelden (in totaal 700), en moest deze classificeren als authentiek of kunstmatig.
Menselijke portretten, eenvoudiger; landschappen, bijna onmogelijk
Een van de meest alleszeggende bevindingen van het onderzoek is dat mensen beter in staat zijn om echte menselijke gezichten te herkennen dan andere soorten afbeeldingen. Daarentegen neigen fouten te stijgen bij stads- of natuurgezichten, vooral als deze ontbreken aan herkenbare elementen of plausibele composities.
De studie suggereert dat gebruikers nog steeds afhankelijk zijn van “visuele aanwijzingen” of stilistische artefacten om te detecteren of een afbeelding door AI is gegenereerd. Maar naarmate de modellen verbeteren, verdwijnen deze aanwijzingen: texturen, schaduwen, scherptediepte en architecturale details worden steeds overtuigender. De consequentie is duidelijk: het vertrouwen in wat we zien, wordt fragiel.
Een AI-detectiesysteem met 95% nauwkeurigheid… maar onvoldoende alleen
Tegelijkertijd heeft Microsoft een automatisch detectiesysteem voor synthetische afbeeldingen ontwikkeld dat, volgens interne testen, in staat is om afbeeldingen die door AI zijn gegenereerd met een 95% nauwkeurigheid te identificeren. De tool werd getest met dezelfde databank van afbeeldingen die menselijke gebruikers te zien kregen, en toont een significante kloof tussen de waarnemingscapaciteiten van mensen en die van de technologie zelf.
Niettemin erkennen de onderzoekers dat één enkele tool niet voldoende is. Technische oplossingen moeten gepaard gaan met transparante labelsystemen, watermerken, digitale handtekeningen en platformbeleid die duidelijk en betrouwbaar informeren over de oorsprong van de inhoud.
“Het is dringend noodzakelijk om zichtbare en blijvende mechanismen in te voeren die aangeven welke inhoud door kunstmatige intelligentie is gegenereerd of gewijzigd, om de verspreiding van visuele desinformatie en het verlies van publiek vertrouwen te voorkomen”, benadrukt de studie.
Van visuele manipulatie naar erosie van de waarheid
De moeilijkheid om een echte afbeelding van een door AI gegenereerde afbeelding te onderscheiden, heeft al sociale gevolgen. Op sociale media, in de media en in educatieve omgevingen circuleren dagelijks virale, gemanipuleerde of volledig verzonnen afbeeldingen die verwarring, polarisatie of paniek veroorzaken. Dit fenomeen is zo zorgwekkend dat het heeft geleid tot interventie van regeringen en internationale organisaties.
In dit licht is de recente beslissing van Australië om YouTube voor minderjarigen onder de 16 jaar te verbieden vanaf december 2025 bijzonder relevant. Het land argumenteert dat schadelijke inhoud voor minderjarigen — inclusief video’s die met AI zijn gegenereerd of gewijzigd — een bedreiging vormen voor de mentale en emotionele gezondheid van tieners. Volgens een officiële enquête identificeerde 37% van de minderjarigen in Australië schadelijke inhoud op YouTube, zelfs meer dan op andere sociale media.
Aan de andere kant hebben bedrijven zoals Meta gekozen voor een verantwoordelijk containment-strategie, door geavanceerde veiligheidsfuncties op Instagram in te voeren, zoals de detectie van verdachte gesprekspartners, bescherming tegen ongewenste naaktbeelden en waarschuwingen voor locatie om gevallen van sextorsie te voorkomen. Deze tools, standaard ingeschakeld voor tieneraccounts, worden aangevuld met nieuwe maatregelen voor profielen beheerd door volwassenen die kindcontent publiceren.
Wat kunnen we als samenleving doen?
De studie van Cornell en Microsoft is niet alleen een technologische oproep tot actie: het is een culturele wake-upcall. Als we 38% van de tijd falen in het beoordelen van wat we zien, hebben we meer dan algoritmen nodig om het vertrouwen te herstellen. We hebben visuele educatie, kritisch denken en mediawijsheid nodig vanaf jonge leeftijd.
Bovendien moet er vooruitgang worden geboekt in het creëren van een internationaal regelgevend kader dat transparantie eist van de ontwikkelaars van generatieve AI-modellen en de platforms die deze integreren. Consumenten moeten ook recht hebben om te weten of een afbeelding is gegenereerd door een model, digitaal is gewijzigd of uit de realiteit is vastgelegd.
Een waarheid die steeds moeilijker te zien is
We leven in een tijd waarin de mogelijkheid om hyperrealistische beelden te creëren geen voorrecht meer is van experts. Tegenwoordig kan iedereen een scène genereren door slechts een zin te schrijven. Dit heeft positieve toepassingen in design, kunst, educatie of wetenschap, maar opent ook de deur voor massamanipulatie, identiteitsdiefstal en systematische desinformatie.
Het onderzoek laat duidelijk zien: het zicht alleen is niet genoeg. In het nieuwe digitale ecosysteem moet visuele waarheid vergezeld gaan van verificatietools, kritische cultuur en gedeelde verantwoordelijkheid. Alleen dan kunnen we navigeren in een wereld waarin het valse steeds onafscheidelijker wordt van het echte.