Toenemende Dreigingen door Versnelde AI-Adoptie in Multicloud Omgevingen
Een recent rapport van Orca Security wijst op een alarmerende stijging van aanvalsmethoden die voortkomen uit de versnelde integratie van kunstmatige intelligentie in multicloud-omgevingen. Volgens het 2025 State of Cloud Security Report gebruikt maar liefst 84% van de organisaties AI-pakketten in de cloud, maar verontrustend genoeg heeft 62% van hen minstens één kwetsbaar pakket in gebruik.
Het onderzoek, uitgevoerd door het Orca Research Pod, analyseerde miljarden cloudactiva verspreid over platforms zoals AWS, Google Cloud, Azure, Oracle en Alibaba. De bevindingen suggereren dat innovatie steeds meer het achilleshiel van de beveiliging wordt.
Belangrijkste Bevindingen uit het Rapport 2025
Indicator | Percentage of Kenmerk |
---|---|
Organisaties die AI in de cloud gebruiken | 84% |
Organisaties met minstens één kwetsbaar AI-pakket | 62% |
Organisaties met geheimen in platte tekst in de broncode | 85% |
Publieke cloudactiva met mogelijkheden voor laterale beweging | 76% |
Organisaties met activa met meer dan 100 aanvalsroutes | 36% |
Gebruik van geprivilegieerde accounts in Kubernetes | 93% |
Risico’s die Verder Gaan dan Runtime
Een van de meest zorgwekkende gegevens is dat 85% van de onderzochte organisaties gevoelige geheimen, zoals wachtwoorden en API-sleutels, direct in hun broncode-opslagplaatsen bewaart. Wanneer deze opslagplaatsen worden blootgesteld, krijgen aanvallers met basiskennis eenvoudig toegang tot kritieke systemen. Deze praktijken vormen een structureel risico, omdat ze niet alleen afhankelijk zijn van de configuratie van de cloudomgeving, maar ook van onveilige gewoonten binnen de ontwikkelingscyclus zelf.
Het Domino-effect van Laterale Beweging
Een veelgebruikte strategie door aanvallers is laterale beweging, waarmee ze toegang krijgen tot meer middelen zodra ze binnen een systeem zijn. Orca wijst erop dat 76% van de organisaties minstens één publiek actief bezit dat deze techniek faciliteert, wat elke beveiligingsinbreuk tot een exponentiële bedreiging maakt.
Kunstmatige Intelligentie: Een Motor van Vooruitgang en Risico
De adoptie van AI is niet alleen toegenomen, maar doet dat ook sneller dan de beveiligingspraktijken kunnen bijhouden. Vaak worden open-source pakketten geïnstalleerd die nog onopgeloste kwetsbaarheden (CVE’s) bevatten, sommige zelfs in staat om code op afstand uit te voeren. Dit betekent dat een schijnbaar onschadelijk taalmodel een paard van Troje kan worden binnen de infrastructuur van een bedrijf als deze niet goed wordt beheerd.
Aanbevelingen voor Beveiligingsteams
Hier zijn enkele essentiële aanbevelingen voor beveiligingsteams:
- Continue scanning van CVE’s in AI-pakketten – Vermindert het risico van afstandsbediening of stille compromissen.
- Auditing van geheimen in opslagplaatsen – Voorkomt blootstelling van kritieke inloggegevens.
- Beheer van niet-menselijke identiteiten – Verbetert de traceerbaarheid en vermindert toegangswegen.
- Segmentatie en Zero Trust-beleid – Beperkt laterale beweging in geval van een inbreuk.
- Geïntegreerde zichtbaarheid in multicloud-omgevingen – Verbetert detectie en prioritering van risico’s.
- Training in veilige AI voor ontwikkelaars – Bevordert verantwoord coderingsgedrag vanaf het begin.
Slotopmerkingen
Innovatie stopt niet, maar de beveiliging kan dat ook niet doen. Het rapport van Orca Security is een wake-upcall voor duizenden organisaties: bescherm hun groei zonder de integriteit in gevaar te brengen. Zoals Gil Geron het samenvat: “Het moment is nu. Als we willen dat de cloud en kunstmatige intelligentie motoren van transformatie zijn, moeten ze ook vertrouwelijke omgevingen zijn.”
De cloud is niet alleen een opslagplaats voor gegevens meer; het is het strijdtoneel van de cybersecurity van de 21e eeuw.