Rapport van Palo Alto Networks: 75% van AI-projecten in Europa vormt een aanzienlijk beveiligingsrisico
Een recent rapport van Palo Alto Networks, een toonaangevend bedrijf op het gebied van cyberbeveiliging, geeft een alarmerende waarschuwing: 75% van de lopende agentieve kunstmatige intelligentie (AI) projecten in Europa brengt aanzienlijke veiligheidsrisico’s met zich mee voor organisaties. Het probleem ligt niet in de technologie zelf, maar in het gebrek aan adequate governance, controle en toezicht.
Het onderzoek, dat is gebaseerd op meer dan 3.000 interviews met topmanagers (C-suite) van Europese bedrijven, toont aan dat veel AI-initiatieven worden uitgevoerd zonder een duidelijke strategie, zonder gedefinieerde doelstellingen en zonder vastgestelde veiligheidscriteria. Dit reflecteert een gebrek aan betrokkenheid van de raden van bestuur. Volgens het bedrijf kan, als er niet dringend actie wordt ondernomen door het bedrijfsleven, de huidige innovatie leiden tot een toekomstige cybercrisis.
Om dit te voorkomen en ervoor te zorgen dat agentieve AI echte en duurzame waarde genereert, stelt Palo Alto Networks drie fundamentele pijlers voor die de verantwoorde en veilige adoptie moeten leiden.
Pijler 1: Resultaten definiëren en beperken
De studie identificeert als belangrijkste oorzaken van falen het fenomeen van “resultaatafwijking”; projecten van AI worden gelanceerd zonder meetbare bedrijfsdoelstellingen of risicobenadering. Volgens Gartner zal 40% van alle projecten vóór 2027 worden geannuleerd, terwijl het MIT schat dat 95% van de generatieve AI-programma’s voor bedrijven al faalt. De situatie is nog zorgwekkender vanuit een cyberbeveiligingsperspectief, aangezien slechts 6% van de organisaties een geavanceerd beveiligingsraamwerk voor AI toepast (Stanford).
“Het grote verschil nu is dat agentieve AI niet alleen antwoorden biedt, maar ook acties onderneemt gericht op concrete resultaten,” legt Haider Pasha, CISO van EMEA bij Palo Alto Networks, uit. “Organisaties die in staat zijn om de juiste gebruiksgevallen te identificeren en deze af te stemmen op zakelijke doelstellingen, zullen de technologie echt kunnen laten renderen.”
Het bedrijf raadt aan om AI-agentprojecten te ontwerpen op basis van goedgekeurde en gedefinieerde doelstellingen die in lijn zijn met veiligheidsnormen en de bedrijfseigen identiteit.
Pijler 2: Beveiligingsmaatregelen vanaf het ontwerp
Het onderzoek benadrukt dat vertrouwen in AI in balans moet zijn met controle, door principes van Zero Trust en een op identiteit gerichte veiligheidsbenadering toe te passen. De meest voorkomende fouten komen voort uit agenten met te veel bevoegdheden, zwakke identiteitscontroles of het ontbreken van gedefinieerde toegangsrechten.
Palo Alto Networks benadrukt dat de autonomie van agents moet worden verdiend, en niet vanaf de eerste dag moet worden verleend. Systemen moeten worden behandeld als digitale werknemers, onderworpen aan voortschrijdende niveaus van vertrouwen en constante audits. Daarom raadt het bedrijf het volgende aan:
- Pas het Zero Trust-model toe in de gehele architectuur.
- Scheiding van bevoegdheden en controle over subagenten.
- Registreer alle acties en houd altijd een mens in de lus.
- Adopteer een geïntegreerd AI Security Framework, en voorkom geïsoleerde oplossingen.
Momenteel is de verhouding tussen agents en mensen al ongeveer 80 op 1, en deze verhouding zal in de komende jaren snel toenemen, wat organisaties verplicht om robuuste en schaalbare controle-infrastructuren te creëren.
Pijler 3: Transversale governance en gedeelde verantwoordelijkheid
Tot slot benadrukt Palo Alto Networks dat AI-agents als een transversale bedrijfsinitiatief moeten worden benaderd, en niet als een geïsoleerd project binnen de IT-afdeling. Om hun succes te waarborgen, stelt het bedrijf voor om een “Governance Council for Agents” op te richten, met vertegenwoordigers van veiligheid, risico, juridische zaken, operaties en bedrijfsvoering, en regelmatige reviews op niveau van de raad van bestuur. Daarnaast roept het de raden op om:
- Strikter toezicht te houden op de integratie en resultaten van projecten.
- Actief inzicht te verwerven in de implicaties van AI.
- Langdurige allianties aan te gaan met betrouwbare technologiepartners.
- Verantwoordelijken te empoweren om AI op een gecontroleerde en veilige manier te adopteren.
Dit model van gedeelde verantwoordelijkheid versterkt de veerkracht, waarborgt de naleving van regelgeving en zorgt ervoor dat de projecten in lijn zijn met de strategische doelstellingen.