Interne bedreigingen blijven een van de grootste uitdagingen voor cybersecurityverantwoordelijken. Aan dit scenario wordt nu de uitbreiding van autonome kunstmatige intelligentie toegevoegd, wat het risico op blootstelling van gevoelige gegevens aanzienlijk kan verhogen. Volgens Proofpoint kunnen AI-gestuurde copilots dit jaar de bron van datalekken worden, mogelijk zelfs nog meer dan de eigen medewerkers.
Steeds meer organisaties integreren intelligente agents die kunnen communiceren met verschillende systemen, complexe taken automatiseren of code genereren. Echter, indien deze systemen niet correct zijn geconfigureerd, kunnen ze processen activeren die vertrouwelijke gegevens blootstellen of de beveiligingscontroles ondermijnen. In bepaalde contexten kan het gedrag van deze agents bovendien worden gemanipuleerd om ongeautoriseerde handelingen uit te voeren.
Experts wijzen erop dat traditionele programma’s voor het voorkomen van interne bedreigingen zijn ontworpen met de risico’s van mensen in gedachten: hun toegangen, kansen of potentiële motivaties. De integratie van kunstmatige intelligentie brengt echter een nieuwe dimensie van risico met zich mee. Onderzoekers van Proofpoint benadrukken dat AI-agents als digitale identiteiten met eigen privileges moeten worden beschouwd, waardoor organisaties hun machtigingen moeten beheren, hun activiteiten moeten monitoren en de impact op de beveiliging moeten evalueren.
In deze nieuwe werkomgeving, waarin mensen en AI-agents routinematig samenwerken, nemen ook de risico’s van onbedoelde fouten toe. Tools gebaseerd op grote taalmodellen zoals ChatGPT, Microsoft Copilot of Google Gemini kunnen per ongeluk gevoelige informatie blootleggen wanneer gebruikers data invoeren in hun vragen. Tegelijk kunnen de agents zelf interne documenten samenvatten of toegang krijgen tot restrictieve informatie, tenzij er duidelijke limieten worden gesteld.
De situatie kan verergeren als kwaadaardige actoren instructies gebruiken om systemen te manipuleren. Door middel van dergelijke interacties kunnen ze de agents laten onthullen interne processen of acties uitvoeren die voorheen technische kennis vereisten.
Bovendien neigen incidenten gerelateerd aan interne bedreigingen toe te nemen tijdens periodes van bedrijfsveranderingen, zoals fusies, overnames of agressieve talentacquisitie. In deze situaties creëren de overgangsfasen in systemen en de druk op medewerkers een omgeving die meer vatbaar is voor datalekken of ongepaste praktijken. Volgens analisten kan kunstmatige intelligentie ook een rol spelen bij bedrijfsspionage door het onderzoeken van concurrenten, het repliceren van legitieme communicatie of het maskeren van bepaalde activiteiten.
Ondanks deze risico’s wordt AI ook gezien als een belangrijk hulpmiddel om de beveiliging te verbeteren. Proofpoint voorspelt dat in 2026 kunstmatige intelligentie een steeds centralere rol zal spelen bij het detecteren en analyseren van interne incidenten. Dankzij het vermogen om grote hoeveelheden gegevens te verwerken, kunnen patronen worden herkend, gebeurtenissen worden gecorreleerd en bedreigingen sneller worden geprioriteerd.
Deze ontwikkeling zal ook leiden tot een transformatie in het risicobeheer. Organisaties moeten signalen afkomstig van identiteiten, gebruikersgedrag en technische gebeurtenissen integreren in één samenhangend benadering, in plaats van ze afzonderlijk te analyseren. Met een overzichtelijke visie kunnen securityteams sneller ingrijpen en gerichtere maatregelen nemen.
Tot slot benadrukken specialisten het belang van het opstellen van heldere normen voor verantwoordelijk gebruik van kunstmatige intelligentie, inclusief privacybeleid, ethische criteria en governance-mechanismen die het functioneren van de agents en hun toegang tot bedrijfsinformatie reguleren. Volgens Proofpoint is het implementeren van deze maatregelen cruciaal om nieuwe bedreigingen te beperken en een veilige digitale omgeving te waarborgen waarin mensen en AI-systemen veilig kunnen samenwerken.
