De toenemende adoptie van systemen die worden aangedreven door kunstmatige intelligentie (AI) en machine learning (ML) heeft ervoor gezorgd dat deze technologieën topprioriteitdoelwitten zijn geworden voor geavanceerde cyberaanvallen. Van data poisoning-aanvallen tot adversarial manipulaties die de besluitvorming van AI verstoren, de kwetsbaarheden strekken zich uit over de gehele levenscyclus van AI-systemen.
Als reactie hierop is MLSecOps (Machine Learning Security Operations) ontstaan, een discipline gericht op het verzekeren van robuuste beveiliging van AI/ML-systemen. Dit framework gaat opkomende bedreigingen tegen met integrale praktijken en vijf fundamentele pijlers.
1. Kwetsbaarheden in de toeleveringsketen van AI-software
AI-systemen zijn afhankelijk van een complex ecosysteem van tools, data en ML-componenten, vaak afkomstig van meerdere leveranciers. Als deze elementen niet adequaat beveiligd zijn, kunnen ze doelwitten worden van kwaadwillende actoren.
Een voorbeeld van een aanval op de toeleveringsketen is de hack van SolarWinds, die overheidsnetwerken en corporate netwerken compromitteerde door kwaadaardige code in te voegen in veelgebruikte software. In AI kan dit gebeuren door het injecteren van corrupte data of gemanipuleerde componenten.
MLSecOps pakt deze risico’s aan door continu toezicht te houden op de toeleveringsketen, de oorsprong en integriteit van ML-assets te controleren en beveiligingscontroles in elke fase van de levenscyclus van AI te implementeren.
2. Herkomst van het model
In AI worden modellen vaak gedeeld en hergebruikt, wat zorgen oproept over de herkomst van het model: hoe het is ontwikkeld, welke data zijn gebruikt en hoe het zich heeft ontwikkeld. Begrip van deze geschiedenis is cruciaal om beveiligingsrisico’s te identificeren en te verzekeren dat het model functioneert zoals verwacht.
MLSecOps beveelt aan om een gedetailleerde ontwikkelgeschiedenis van elk model bij te houden, inclusief een AI-Bill of Materials (AI-BOM). Dit register stelt organisaties in staat om veranderingen te traceren, de integriteit van modellen te beschermen en interne of externe manipulaties te voorkomen.
3. Governance, Risico en Compliance (GRC)
Goede governance is essentieel om te verzekeren dat AI-systemen eerlijk, transparant en verantwoordelijk zijn. Het GRC-framework omvat hulpmiddelen zoals de AI-BOM, die een integraal beeld bieden van de componenten van een AI-systeem, van trainingsdata tot modelafhankelijkheden.
Bovendien zijn regelmatige audits een aanbevolen praktijk om vooroordelen te beoordelen en om te zorgen voor naleving van regelgeving, waardoor het publieke vertrouwen in door AI aangedreven technologieën wordt bevorderd.
4. Betrouwbare AI
Naarmate AI invloed heeft op kritieke beslissingen, wordt betrouwbare AI een essentieel onderdeel binnen het MLSecOps-framework. Dit impliceert het garanderen van transparantie, uitlegbaarheid en integriteit van ML-systemen gedurende hun gehele levenscyclus.
Betrouwbare AI bevordert voortdurende waakzaamheid, beoordelingen van eerlijkheid en strategieën om vooroordelen te mitigeren, zodat de modellen veerkrachtig en ethisch zijn. Deze aanpak versterkt het vertrouwen in AI, voor zowel gebruikers als regelgevers.
5. Adversarial machine learning
Adversarial machine learning (AdvML) is een kritisch component van MLSecOps dat de risico’s aanpakt die zijn geassocieerd met adversarial aanvallen. Deze aanvallen manipuleren invoerdata om modellen te misleiden, waardoor onjuiste voorspellingen of onverwachte gedragingen worden gegenereerd.
Bijvoorbeeld, kleine veranderingen in een afbeelding zouden ervoor kunnen zorgen dat een systeem voor gezichtsherkenning een persoon verkeerd identificeert. MLSecOps stelt strategieën zoals adversarial training en stresstests voor om zwakheden te identificeren voordat deze worden uitgebuit.
Conclusie
MLSecOps combineert deze vijf sleutelgebieden om de uitdagingen van beveiliging in AI aan te gaan, door het opzetten van een integraal framework dat ML-systemen beschermt tegen opkomende bedreigin