Hoe CISO’s het gebruik van AI door werknemers kunnen beheersen

Sinds de lancering minder dan 18 maanden geleden, heeft ChatGPT snel de 100 miljoen gebruikers bereikt in minder dan twee maanden. Echter, de zakelijke adoptie van generatieve kunstmatige intelligentie (GenAI) is langzamer dan verwacht. Volgens een recente enquête van Telstra en MIT Review, hoewel 75% van de bedrijven GenAI vorig jaar hebben getest, heeft slechts 9% het breed geïmplementeerd. De hoofdbarrière: gegevensprivacy en regelgevende compliance.

De belangrijkste zorg van CISO’s (Chief Information Security Officers) is hoe ze inzicht kunnen krijgen in het gebruik van AI door werknemers, hoe ze bedrijfsbeleid over het aanvaardbare gebruik van AI kunnen toepassen en hoe ze het verlies van gevoelige data en intellectueel eigendom kunnen voorkomen. Het beschermen van gebruikersactiviteiten rond AI-modellen is cruciaal voor privacy en naleving.

Om volledig zicht en controle te krijgen over zowel interne als externe gebruikersactiviteiten, moet al het uitgaande verkeer worden vastgelegd en geanalyseerd. Dit omvat het bepalen welke sites werknemers bezoeken, waar data worden opgeslagen en of het gebruik ervan veilig is. Tijdens de initiële boom van ChatGPT, hebben veel werknemers vertrouwelijke informatie geüpload tijdens het testen van de technologie, en weinig CISO’s hebben het vertrouwen dat ze volledig begrijpen welke data zijn verzonden en nog steeds worden verzonden.

Het beheren van werknemersactiviteiten door beleid is een uitdaging. Het implementeren van compliance-mechanismen kan complex zijn en moet meerdere toegangspunten overwegen zoals agenten op eindpunten, proxy’s en gateways. Toegangsbeleid voor data van AI moet specifiek zijn en aangepast aan de behoeften van de organisatie, zoals het voorkomen dat informatie van één klant wordt gebruikt om antwoorden te genereren voor een ander.

Met de opgedane ervaring in het gebruik van generatieve AI, zijn bedrijven begonnen met het identificeren van wat nodig is om zicht en controle te verkrijgen over gebruikersactiviteiten. Dit omvat het opbouwen en onderhouden van een databank van GenAI-bestemmingen, het vastleggen van de gewenste DNS activiteiten en het continu in kaart brengen van deze activiteit om het te catalogiseren en de risico’s te analyseren.

Vele bedrijven overwegen om taalmodellen en hun eigen chatGPTs on-premise of in managed infrastructuur in een private cloud of bare-metal infrastructuur te ontplooien, zoals ons verteld wordt door David Carrero, medeoprichter van Stackscale, specialisten in infrastructuuroplossingen, private cloud en bare-metal.

Tenslotte is het vermogen om beleidsbepalingen voor aanvaardbaar gebruik in real-time af te dwingen essentieel. Dit betekent het onderscheppen van aanvragen en het toepassen van beleid om datalekken te voorkomen en het onveilige gebruik van AI te verhinderen. Het beleidsmechanisme moet worden toegepast op alle interne en externe toegangen tot de taalmodellen, ongeacht het platform of de cloud die wordt gebruikt.

Ondanks de complexiteit, hebben sommige bedrijven aanzienlijke vooruitgang geboekt in dit opzicht. Grotere en meer geavanceerde organisaties hebben controles ontwikkeld om de zichtbaarheid en controle over AI te beheren. Sommigen hebben oplossingen vanaf nul gebouwd, terwijl anderen een combinatie van hulpmiddelen zoals EDR, SIEM, CASB, proxy’s en firewalls hebben gebruikt. Met de snelle evolutie van dit domein, brengen nieuwe startups innovatieve oplossingen naar de markt, wat de volgende grote verschuiving in IT-beveiliging teweegbrengt, aangedreven door de adoptie van GenAI.

Scroll naar boven