Zscaler legt de nadruk op de ‘AI-voetafdruk’ van bedrijven met een nieuw beveiligingspakket

De race om generatieve Kunstmatige Intelligentie te implementeren in bedrijven kent een minder glamoureus probleem: de beveiliging loopt achter. Bij elke nieuwe copiloot, API van modellen, agent die taken automatiseert en integraties in SaaS wordt het traditionele perimeter steeds vager… en de zichtbaarheid wordt complexer.

Dit is het uitgangspunt van de aankondiging die Zscaler op 27 januari 2026 openbaar maakte: een reeks innovaties onder de naam AI Security Suite. Deze zijn gericht op dat IT- en beveiligingsteams bruikbaarheid, classificatie en governance van werkelijke AI-gebruik in de organisatie kunnen waarborgen, zonder de adoptie te belemmeren.

Het nieuwe gat: AI overal… en niemand ziet het geheel

In het communiqué erkent het bedrijf een patroon dat elke beheerder en CISO direct herkent: bedrijven beschikken zelden over een volledig overzicht van welke AI-tools worden gebruikt (GenAI “shadow”, ontwikkelomgevingen, embedded AI in SaaS, modellen, agents en infrastructuur). Dit bemoeilijkt een nauwkeurige inschatting van blootstelling, datatoegang en risico.

Daarnaast speelt een tweede probleem mee: het verkeer en de datastromen van AI gedraagt zich niet als gewoon webverkeer. Volgens Zscaler zorgen “niet-menselijke” patronen en nieuwe protocollen voor extra moeilijkheden bij het toepassen van beleidsregels en controles met traditionele tools.

Parallel hieraan koppelt Zscaler de aankondiging aan een opvallende bevinding uit hun ThreatLabz 2026 AI Security Report: het onderzoek stelt dat “de meeste” enterprise AI-systemen binnen 16 minuten gecompromitteerd kunnen worden, met kritieke kwetsbaarheden in 100% van de bestudeerde systemen.

Drie terreinen: inventarisatie, veilige toegang en levenscyclusbeheer

De suite is opgebouwd rond drie use cases die praktisch gezien het “voor, tijdens en na” adoptie van AI bestrijken:

  • AI Asset Management: inventarisatie van applicaties, modellen, agents, infrastructuur en gebruik, met als doel shadow AI op te sporen en risico’s te prioriteren op basis van data die elk systeem gebruikt.
  • Secure Access to AI: Zero Trust controles om goedgekeurde services te activeren, inclusief online inspectie en prompting-classificatie om datalekken en misbruik te verminderen, zonder productiviteit te beperken.
  • Secure AI Infrastructure and Apps: bescherming van AI-ontwikkelgebieden “van build tot runtime”, inclusief geautomatiseerde red teaming, prompt-hardening en runtime-beveiliging.

In eenvoudige bewoordingen probeert Zscaler chaos in tools, APIs, extensies en agents te vertalen naar iets dat lijkt op een levende AI-CMDB, met relaties, afhankelijkheden en data-context.

MCP, agents en de vertraagde beveiliging

Een belangrijke nuance voor systeembeheerders is dat Zscaler expliciet systemen als MCP-servers, agents en modellen in het inventaris opneemt, naast de onderliggende infrastructuur. Dit wijst op een toenemend gebruik van ‘lagen’ waarmee agents en tools programmatically verbinding maken met interne en externe bronnen.

Daarbij noemt het bedrijf de uitbreidingen met een MCP gateway voor automatische veilige integratie en het gebruik van AI Deception om aanvallen te ontwijken en neutraliseren die gebaseerd zijn op modellen.

Het grote punt is dat het debat niet langer enkel gaat over “wel of niet ChatGPT blokken”, maar over het beheer van gesprekken, acties en permissions binnen systemen die autonoom opereren (of geautomatiseerde stappen uitvoeren die voorheen handmatig waren).

Gebruik als maatstaf: meer AI betekent meer blokkades en meer data in het geding

Voorbij marketing: het ThreatLabz-rapport fungeert als indicator van de trend. Zscaler meldt dat in 2025 meer dan 1 biljoen AI/ML-transacties plaatsvonden, met een jaarlijkse groei van 91%. Daarnaast identificeerde hun platform ongeveer 3.400 applicaties die AI/ML-verkeer genereren.

Belangrijke cijfers voor beheerders van proxy, CASB of DLP: 39% van AI/ML-transacties werden geblokkeerd (bijvoorbeeld voor databeveiliging of beleidswaarborgen). Ook bedroeg de totale datavolume via AI/ML-apps meer dan 18.000 TB.

Wat toepassingen betreft, worden vaak bekende apps met veel transacties geblokkeerd, zoals Grammarly, GitHub Copilot en ChatGPT.

Governance: NIST, EU AI Act en rapportage “voor het management”

Zscaler positioneert dit alles als een reactie op de behoefte aan governance: het afstemmen van beveiligingsprogramma’s op kaders zoals het NIST AI Risk Management Framework en het EU AI Act, en het bieden van rapportages op directieniveau over het gebruik van GenAI.

Dit sluit aan bij een zeer Europese realiteit: AI is niet meer slechts een project voor het datateam, maar raakt compliance, risico’s, audits, juridische en privacy-aspecten. Voor systemen en beveiliging ligt de praktische eis simpel: als je niet kunt uitleggen welke modellen je gebruikt, wie toegang heeft, welke data wordt ingevoerd en wat eruit komt… dan ligt het probleem niet bij de AI, maar bij het ontbreken van controle.


Veelgestelde vragen

Wat is “shadow AI” en waarom is dat zorgelijk voor IT?
Het gebruik van AI-tools zonder goedkeuring of controle van het bedrijf. Dit brengt risico’s met zich mee zoals datalekken, non-compliance en gebrek aan traceerbaarheid van gedeelde informatie met externe modellen of services.

Hoe verandert de agent-gebaseerde AI de beveiligingsperceptie?
Omdat deze niet alleen “antwoordt”: ze kan acties uitvoeren zoals systemen raadplegen, taken starten, tickets wijzigen of toegang verkrijgen tot repositories. Dat verhoogt de impact van misbruik van permissies, malafide prompts of onveilige integraties.

Wat levert een inventaris van “AI-sporen” op ten opzichte van traditionele categoriebloackage?
Een generiek blokkadesysteem kan productiviteit beperken of lacunes creëren. Een gedetailleerde inventaris met afhankelijkheden maakt het mogelijk te zien wat echt gebruikt wordt, welke data elk systeem beïnvloedt en fijnmazige beleidsregels toe te passen (per gebruiker, app, datatypen, context).

Welke controles zijn cruciaal om datalekken bij GenAI in bedrijven te voorkomen?
Zichtbaarheid van gebruik, dataclassificatie, inline-inspectie en heldere policies (welke tools toegestaan, voor welke doeleinden en met welk soort data). Daarnaast specifieke guardrails voor prompts en output waar het workflow dat vereist.

via: zscaler

Scroll naar boven