Nieuwe Regelgeving voor Kunstmatige Intelligentie in de EU: Vertrouwen van Burgers Ontbreekt
Met ingang van 2 augustus 2025 zal de sanctiewetgeving van het Europese Reglement voor Kunstmatige Intelligentie (RIA) van kracht worden. Deze baanbrekende wetgeving heeft als doel het gebruik van kunstmatige intelligentie (AI) veilig, ethisch en verantwoordelijk te maken, maar uit recente onderzoeken blijkt dat de meeste mensen nog steeds een gebrek aan controle en transparantie ervaren bij het gebruik van deze technologieën.
Strenge Sancties voor Inbreuken
De Europese Unie begint een nieuwe fase in de technologische governance met de invoering van de sanctiewetgeving van het RIA. Overtredingen van de regels kunnen leiden tot boetes van tot 35 miljoen euro of 7% van de wereldwijde jaaromzet van het bedrijf dat inbreuk maakt. Dit markeert een belangrijke stap in de regulering van AI, met name voor systemen die als hoogriskant worden geclassificeerd of een aanzienlijke impact hebben op de fundamentele rechten van individuen.
Wantrouwen onder de Bevolking
Een recente enquête van het technologieadviesbureau Entelgy onthult dat slechts 8,8% van de Spaanse burgers gelooft dat er momenteel een strikte regulering van kunstmatige intelligentie is. Bijzonder verontrustend is dat 88,6% van de respondenten aangeeft dat ze geen vertrouwen hebben in de toezichthoudende instanties als het gaat om de ontwikkeling en controle van AI-systemen. Dit wantrouwen vergroot de zorgen over privacy, waarbij acht op de tien Spanjaarden vrezen dat AI-systemen persoonlijke gegevens verzamelen zonder adequate waarborgen.
Wat Verbiedt de Nieuwe Europese Reglementatie?
Het RIA introduceert een classificatie van risico’s voor AI-systemen en legt duidelijke verboden op voor praktijken die als onaanvaardbaar risico worden beschouwd:
- Subliminaal of psychologisch manipuleren
- Uitz exploiting van fysieke of mentale kwetsbaarheden
- Massaal gezichtsherkenning in openbare ruimtes
- Emotie-analyse in werk- of leeromgevingen
- Sociale puntensystemen (social scoring)
- Daderprofilering
- Biometrische categorisatie zonder duidelijke juridische basis
Deze activiteiten zijn volledig verboden en worden direct bestraft.
Technische Implicaties
Vanuit technologisch perspectief vereist het RIA dat ontwikkelaars en integrators van AI:
- Het interne functioneren van modellen documenteren
- Menselijke supervisie garanderen voor gevoelige beslissingen
- Duidelijke informatie verstrekken aan gebruikers wanneer ze met AI interageren
- Risico’s van fundamentelere of algemene modellen evalueren en beheren
Bovendien moeten bedrijven actief samenwerken met de Spaanse Autoriteit voor AI (AESIA), die in lijn is met de nationale digitale transformatie en technologische soevereiniteit.
Lage Juridische Geletterdheid
Een ander opvallend punt uit het rapport van Entelgy is het lage niveau van juridische kennis onder de bevolking: slechts 11,4% geeft aan op de hoogte te zijn van de geldende wetten over AI, waarbij deze kennis iets groter is onder jongeren (19,3% in de leeftijdsgroep 18-29 jaar). Dit gebrek aan kennis kan zowel de bescherming van digitale rechten als de verantwoordelijke adoptie van technologie belemmeren.
Entelgy merkt op: “Een laag kennisniveau maakt het moeilijk om vertrouwen te creëren in instellingen die de rechten van burgers moeten beschermen tegen deze technologieën en vraagt om extra inspanningen op het gebied van transparantie en opleiding.”
Een Uitdaging voor het Technologische Ecosysteem
Het RIA vormt een cruciaal onderdeel van de Europese strategie voor een betrouwbare AI, die zich onderscheidt van ondoorzichtige of moeilijk onderzochte modellen. Desondanks blijkt dat wetgeving alleen niet genoeg is om het vertrouwen te winnen; er is behoefte aan een integrale aanpak die omvat:
- Digitale en juridische geletterdheid
- Open audits en technische certificeringen
- Versterking van ethische, transparante en uitlegbare AI-modellen (XAI)
- Burgerparticipatie bij het vormgeven van AI-beleid
Wat Betekent Dit voor Technologiebedrijven?
Voor technologiebedrijven vormt het nieuwe kader zowel een uitdaging als een kans. Het aanpassen aan de regelgeving kan initiële kosten met zich meebrengen voor audits, systeemherontwerp of juridische validatie. Maar het biedt ook de mogelijkheid om zich positief te onderscheiden door te kiezen voor transparantie, veiligheid en ethiek vanaf het ontwerp.
Met de invoering van de sanctiewetgeving verstuurt Europa een duidelijk signaal aan de sector: innovatie moet gepaard gaan met verantwoordelijkheid. Voor de burgers is dit het moment om transparantie te eisen, digitale rechten uit te oefenen en deel te nemen aan het debat over welke AI we willen bouwen.
Samenvatting
Kenmerk | Waarde |
---|---|
Maximale boete onder het RIA | Tot 35 miljoen € of 7% van de wereldwijde omzet |
Burgers die geloven dat de regelgeving strikt is | 8,8% |
Burgers die wantrouwend zijn ten opzichte van institutionele controle | 88,6% |
Niveau van juridische kennis | 11,4% (19,3% onder jongeren) |
Burgers bezorgd over privacy voor AI | 80% |
Bron: Nieuws over Kunstmatige Intelligentie