OpenAI en Anthropic gaan de cybersecurity in en zetten grote leveranciers onder druk

De toepassing van kunstmatige intelligentie in cybersecurity bevindt zich momenteel in een nieuwe fase. Het gaat niet langer alleen om assistenten die regels opstellen, incidenten samenvatten of helpen bij het interpreteren van waarschuwingen. Grote AI-laboratoria willen nu modellen aanbieden die specifiek zijn afgestemd op defensieve taken, met minder frictie bij gevoelige werkzaamheden en met capaciteiten die dicht in de buurt komen van domeinen die voorheen voorbehouden waren aan gespecialiseerde beveiligingsleveranciers. Dit is de kerninterpretatie achter de lancering van GPT-5.4-Cyber door OpenAI en de beperkte uitrol van Claude Mythos Preview binnen Project Glasswing door Anthropic.

Op 14 april kondigde OpenAI haar uitbreiding aan van het programma Trusted Access for Cyber (TAC) voor duizenden geverifieerde cyberverdedigers en tientallen teams. Daarbij komt een variatie van GPT-5.4 die getraind is om meer permissief te zijn voor legitieme cyberbeveiligingsdoeleinden. Aan de andere kant presenteerde Anthropic op 7 april een gesloten toegang tot een model dat vooral geschikt is voor aanvallende en verdedigende veiligheidsactiviteiten, tot het punt dat het nog niet publiek toegankelijk is. Beide bedrijven begeven zich op dezelfde markt, maar hanteren duidelijk verschillende strategieën voor uitrol.

OpenAI streeft naar gecontroleerde toegang op grote schaal; Anthropic kiest voor een veel smallere perimeter

Voor OpenAI is de boodschap helder: ze willen niet dat geavanceerde cyberverdediging wordt beperkt tot een selecte groep. GPT-5.4-Cyber zal eerst beschikbaar komen voor geverifieerde veiligheidspartners, organisaties en onderzoeksinitiatieven, waarbij TAC fungeert als een vertrouwenslaag die bepaalt wie toegang krijgt tot meer permissieve versies van het model. OpenAI benadrukt dat het risico in cyberveiligheid niet alleen afhankelijk is van het model, maar ook van de gebruiker, de signaaldoringen, vertrouwen en het operationele omgeving. Deze aanpak rechtvaardigt een bredere toegangsstrategie, ondersteund door verificatie van identiteit en aanvullende controlemaatregelen.

Anthropic kiest daarentegen bijna het tegenovergestelde pad. Claude Mythos Preview blijft onderdeel van een gesloten onderzoeksvoorvertoning binnen Project Glasswing, een initiatief dat onder andere samenwerkt met Apple, Google, Microsoft, NVIDIA, Palo Alto Networks en CrowdStrike om kritische softwarebeveiliging te waarborgen. In de praktijk toont Anthropic Mythos als een te gevoelig model om breed te openen, althans voor nu. Hierdoor krijgt het een meer uitzonderlijk en hoogsensitive programma-achtig karakter, in plaats van een snel opschaalbaar product voor diverse beveiligingsteams.

Voor technisch georiënteerde media is dit verschil essentieel. OpenAI streeft naar een brede markt van geverifieerde verdedigers. Anthropic daarentegen behandelt het als een grensgebied dat nauwlettend moet worden gecontroleerd. Geen van beide strategieën lost het kernprobleem volledig op: hoe nuttig een model ook is voor het opsporen en verhelpen van kwetsbaarheden, het kan ook değer hebben voor kwaadwillenden.

Wat betekent dit voor CrowdStrike, Palo Alto, Microsoft en de sector?

De echte zakelijke vraag is niet of OpenAI en Anthropic cybersecurityteams kunnen helpen, dat lijkt overduidelijk. De werkelijke vraag is in hoeverre zij de traditionele cybersecuritybedrijven bedreigen, die primarily verdienen met platformen, analyses, detectie, respons en managed services.

Op korte termijn lijkt het geen directe vervanging te worden. Zowel CrowdStrike als Palo Alto Networks en Microsoft investeren al geruime tijd in hun eigen AI-gedreven beveiligingslagen. CrowdStrike ontwikkelt Charlotte AI als een analytische agent die triage automatiseert, false positives reduceert en agents en menselijke operators coördineert binnen Falcon. Palo Alto Networks introduceert Prisma AIRS 3.0 als een platform dat volledige zichtbaarheid, governance en veiligheid biedt voor het AI- en autonome agenten-ecosysteem. Microsoft presenteert Security Copilot als een AI-oplossing voor incident response, hunting, threat intelligence en posture management, ondersteund door meer dan 100 biljoen signals per dag en geïntegreerd in hun productecosysteem.

Dit impliceert dat grote spelers niet vanuit de zijlijn kijken, maar al actief meedoen. De aanwezigheid van CrowdStrike en Palo Alto als partners in de lancering van Glasswing suggereert dat Anthropic deze grote beveiligingsbedrijven niet probeert uit te schakelen, maar juist wil samenwerken aan de meest kritische en gevoelige marktsegmenten. Evenzo is OpenAI’s TAC ontworpen om toegang te bieden aan onder andere beveiligingsleveranciers en defensieve teams, niet om die bedrijven te vervangen.

Toch brengt dit risico’s met zich mee, vooral in drie specifieke gebieden.

De eerste is de commoditisering van routinetaken met beperkte waarde. Als modellen zoals GPT-5.4-Cyber of Mythos de kosten voor initiële beoordeling van binaries, voorlopige kwetsbaarhedenanalyse, reverse engineering of het genereren van technische hypothesen sterk verlagen, kan een deel van het waardecreatieproces van niche-tools en gespecialiseerde diensten onder druk komen te staan. Dit raakt vooral fabrikanten die handmatige, repetitieve werkprocessen automatiseren of basis-appsec-oplossingen bieden die weinig differentiëren.

De tweede is de gedeeltelijke disintermediation. Als een AI-lab modellen aanbiedt met toegangscontroles en API’s die legaal toegankelijk en bruikbaar zijn, kunnen sommige organisaties besluiten om niet meer volledig afhankelijk te blijven van externe security-diensten voor bepaalde analyses, maar deze direct binnen hun eigen Security Operations Center (SOC) of interne tooling te integreren. Hoewel dit niet het volledige einde betekent voor outsourcingsmodellen—vaak ontbreken nog data, telemetrie, regels en integraties—, kan het wel de marges ondermijnen van software die vooral gebaseerd is op het analyseren van datastromen.

De derde bedreiging betreft de concurrentiedruk op de positionering van beveiligingsproducten. De afgelopen jaren hebben veel cybersecuritybedrijven benadrukt dat hun toegevoegde waarde ligt in de combinatie van AI met eigen data, unieke signals en geïntegreerde workflows. Met de komst van OpenAI en Anthropic wordt het lastiger om te be argumenteren dat de ‘ware’ intelligentie alleen van de traditionele verkoper komt. Als de topmodellen voor cyber met veiligheid buiten de eigen organisatie gaan draaien, moeten vendors hun verhaal aanpassen van “wij leiden in AI-veiligheid” naar “wij bieden de beste integratie en bundeling”. Die subtiele verschuiving heeft grote invloed op hun marktpositionering en omzetgeneratie.

De positie van de markt verandert, maar de business verdwijnt niet

De risico’s voor bestaande vendors moeten niet worden overschat. Noch OpenAI, noch Anthropic beschikken vandaag over de volledige platformpositie die bedrijven als CrowdStrike, Microsoft, Palo Alto Networks en Google dagelijks gebruiken in en rond hun SOC’s. Die grote spelers behouden het moeilijkst te repliceren domein van telemetrie, integratie met het eindproduct, response orchestration, compliance, managed services en de operationele relatie met de klant. Hoewel OpenAI een model kan bieden dat goed past bij bepaalde taken, en Anthropic krachtigere maar meer restrictieve capaciteiten levert, vormen zij niet op zichzelf een volledige vervanging voor een Endpoint Detection & Response (EDR), Security Information and Event Management (SIEM) of Managed Detection and Response (MDR) platform.

De meest waarschijnlijke verandering is niet dat AI-laboratoria de cybersecuritysector compleet wegvaagt, maar dat ze zorgen voor een herverdeling van waarde. Complexe, operationeel kritieke en op telemetrie gebaseerde systemen blijven het domein van gevestigde bedrijven. Wat OpenAI en Anthropic wel stimuleren, is dat securitybedrijven zich meer moeten richten op hun kernwaarde: het effectief integreren van AI binnen de operationele en decision-making lagen, niet alleen het aanbieden van chatbot-interfaces voor het SOC.

Veelgestelde vragen

Wat is het verschil tussen GPT-5.4-Cyber en Claude Mythos Preview?
GPT-5.4-Cyber is onderdeel van een bredere strategie van gecontroleerde, geverifieerde toegang via TAC die OpenAI verder wil uitbreiden. Claude Mythos Preview is nog steeds onderdeel van een gesloten onderzoeksmoment binnen Project Glasswing, toegankelijk via uitnodiging.

Vormen deze modellen een bedreiging voor bedrijven als CrowdStrike of Palo Alto Networks?
Op korte termijn niet volledig, maar ze kunnen aspecten van routinematige automatisering, herhalende analyses en minder onderscheidende tools onder druk zetten. De grote vendors blijven echter de controle houden over telemetrie, integratie, orkestratie en operationele respons.

Waarom zijn CrowdStrike en Palo Alto ook betrokken bij Project Glasswing?
Omdat Anthropic met Glasswing samenwerkt met een groep partners, waaronder grote securitybedrijven zoals CrowdStrike en Palo Alto Networks. Dit benadrukt dat ook deze spelers strategisch willen deelnemen aan de ontwikkeling van geavanceerde AI-capaciteiten.

Kan een organisatie deze modellen rechtstreeks gebruiken en daardoor bepaalde delen van hun beveiligingsstack overslaan?
Voor specifieke analyses of workflows kan het mogelijk zijn om dergelijke modellen te integreren en afhankelijkheid van enkele tools te verminderen. Echter, voor complete beveiligingsplatforms zoals MDR, EDR en SIEM blijft de vervanging nog niet haalbaar.

Scroll naar boven