F5 heeft de samenwerking met Red Hat uitgebreid om nieuwe beveiligingsmogelijkheden te bieden voor Kubernetes-omgevingen, op AI gebaseerde applicaties en gedigitaliseerde IT-operaties. De aankondiging richt zich op twee hoofdgebieden: de beveiliging van applicaties en API’s binnen Red Hat OpenShift via NGINX Gateway Fabric, en het ontwikkelen van referentiearchitecturen voor het implementeren van AI-ladingen met meer controle vanaf het begin.
Deze stap komt op een moment dat veel organisaties kritieke applicaties naar Kubernetes verplaatsen, terwijl ze experimenteren met interne chatbots, agents, generatieve modellen en AI-flows die verbonden zijn met gevoelige gegevens. Deze combinatie vergroot het aanvalsoppervlak aanzienlijk. Het volstaat niet langer om een monolithische applicatie achter een traditioneel firewall te beschermen. Organisaties moeten API’s, microservices, gateways, modellen, prompts, integraties, pipelines en verkeer tussen snel veranderende componenten beveiligen.
WAF voor Kubernetes op NGINX Gateway Fabric
De eerste innovatie is F5 WAF for NGINX op NGINX Gateway Fabric, beschikbaar via een gecertificeerde operator voor Red Hat OpenShift. Dit initiatief beoogt laag-7-beveiliging te integreren in native Kubernetes-flows, met beveiligingscontroles voor applicaties en API’s die declaratief beheerd kunnen worden, dichterbij de dagelijkse werkzaamheden van DevOps- en platformteams.
In de praktijk betekent dit dat organisaties die applicaties op OpenShift uitrollen, regels voor Web Application Firewall kunnen toevoegen zonder hun geautomatiseerde processen te verstoren. F5 belooft bescherming tegen de OWASP Top 10 en moderne API-beveiliging — twee kritieke gebieden in omgevingen waar services vaak worden blootgelegd, beheerd en geüpdatet.
Het gebruik van een gecertificeerde operator voor OpenShift heeft ook een strategische waarde voor bedrijven. Kubernetes wint aan populariteit, maar de operationele complexiteit blijft bestaan voor organisaties die ondersteuning, governance en herhaalbaarheid nodig hebben. Operators helpen bij installatie, updates en beheer van componenten binnen de cluster, met geautomatiseerde patronen. Voor beveiligingsteams kan dit de kloof verkleinen tussen bedrijfsbeleid en daadwerkelijke implementatie.
De aankondiging versterkt tevens de rol van NGINX binnen de strategie van F5. Sinds de overname probeert F5 de wereld van traditionele application delivery en security te verbinden met cloud-native architecturen. NGINX Gateway Fabric past hierin doordat het zich conformeert aan Kubernetes-standaarden en operaties waarin configuraties steeds vaker in manifesten, repositories en pipelines worden beheerd.
Het wordt essentieel dat deze functionaliteiten niet enkel als een extra laag worden toegevoegd, maar dat ze integraal worden opgenomen in ontwikkelprocessen. Vaak falen beveiligingsmaatregelen niet door het ontbreken van tools, maar doordat ze te laat worden ingezet, handmatig worden geconfigureerd of een bottleneck vormen voor ontwikkelteams. Infrastructure as Code wil dit aanpakken door controlemechanismen herhaalbaar en herbruikbaar te maken.
AI-beveiliging geïntegreerd in OpenShift
De tweede focus ligt op kunstmatige intelligentie. F5 en Red Hat werkten aan een AI Quickstart voor Red Hat OpenShift AI, met vooraf gedefinieerde blueprints die teams in staat stellen snel AI-architecturen op te zetten en te verkennen. F5 noemt voorbeelden zoals F5 AI Guardrails en F5 AI Red Team, gericht op het toevoegen van controles en risicobeoordeling voor AI-toepassingen.
Dit is van belang omdat bedrijfs-AI niet geïsoleerd wordt ingezet. Een bedrijfschatbot kan koppelingen hebben met databases, interne documenten, klantensystemen, CRM’s of supporttools. Een agent kan acties uitvoeren. Een AI-applicatie kan documenten verwerken, beelden interpreteren, API’s aanroepen of interne gegevens blootleggen. Elk van deze functies brengt specifieke risico’s mee: datalekken, prompt-injectie, misbruik van tools, niet-geautoriseerde antwoorden of blootstelling van gevoelige informatie.
Red Hat OpenShift AI biedt een platform om AI- en machine learning-toepassingen te ontwikkelen, trainen, implementeren en beheren op OpenShift. De samenwerking met F5 beoogt daar een beveiligings- en validatielaag aan toe te voegen, afgestemd op de eisen van gereguleerde sectoren en organisaties met gevoelige data. Het gaat niet alleen om ‘AI gebruiken’, maar om dit gecontroleerd en herhaalbaar te doen, met vanaf het ontwerp ingebouwde controles.
De quickstarts kunnen handig zijn voor organisaties die nog in de adoptiefase zitten. Veel bedrijven hebben teams geïnteresseerd in AI, maar missen duidelijke patronen om van proof-of-concept naar gecontroleerde implementatie te gaan. Gecertificeerde architecturen kunnen dit proces versnellen en de kans op fouten verkleinen, mits ze daarna worden aangepast aan de specifieke behoeften van het bedrijf.
Kubernetes, API’s en AI: één gezamenlijke risicovoorziening
De aankondiging van F5 en Red Hat weerspiegelt een belangrijke convergentie. Kubernetes, API’s en AI zijn niet langer losse fragmenten, maar komen samen in moderne applicaties. Ze worden in containers gedeployed, via gateways blootgelegd, communiceren via API’s en bevatten steeds meer AI-componenten. Indien beveiliging in elk stadium apart wordt benaderd, wordt het beheer complex.
Voor CISO’s roept dit een praktische vraag op: hoe kunnen consistente beleidsregels worden toegepast in hybride en multicloud-omgevingen, waar traditionele applicaties, microservices, openbare API’s en AI-modellen naast elkaar bestaan? Beveiliging mag niet alleen afhangen van perimeter-controles. Er is behoefte aan zichtbaarheid, declaratieve beleidsregels, integratie met CI/CD, runtime-beveiliging en tools die platformteams ondersteunen zonder de bedrijfsvoering te vertragen.
F5 positioneert haar Application Delivery and Security Platform (ADSP) als antwoord op deze complexiteit. Red Hat biedt met OpenShift een zakelijke Kubernetes-platform en met OpenShift AI een basis voor AI-ladingen. De combinatie ondersteunt organisaties die gestandaardiseerde deployments nastreven en tegelijk willen voorkomen dat beveiliging een add-on wordt.
Bovendien ligt er een focus op open standaarden. Zowel F5 als Red Hat benadrukken de kracht van schaalbare, open architecturen, wat belangrijk is voor klanten die niet vast willen zitten aan te proprietaire oplossingen. In Kubernetes is dit een gangbare zorg: bedrijven willen gebruikmaken van ecosysteem en ondersteuning, zonder afhankelijk te worden van gesloten oplossingen.
De adoptie zal niet vanzelf gaan. Het integreren van WAF, gateways, API-beveiliging en AI-controles vereist proceswijzigingen. Ontwikkelteams moeten begrijpen wat wordt gevalideerd, hoe wordt uitgerold en welke fouten een live-gang verhinderen. Beveiligingsteams moeten van een finale controle evolueren naar het definiëren van herbruikbare beleidsregels. Platformteams moeten sjablonen bieden die eenvoudig juiste stappen mogelijk maken.
Het kernachtig succes van dit initiatief ligt in het niet neerzetten van geïsoleerde hulpmiddelen, maar in het samenbrengen van security, applicatielevering en AI-ladingen binnen één operationeel platform. In een omgeving waarin intelligente agents en applicaties kritieke processen beïnvloeden, kan deze integratie het verschil maken tussen een gecontroleerde adoptie en een opeenstapeling van pilots die moeilijk te beveiligen zijn.
AI versnelt niet alleen de modernisering van applicaties, maar onthult ook zwakke plekken in API’s, toegangsbeheer, data en cloud-native operaties. De samenwerking tussen F5 en Red Hat onderstreept een belangrijke trend: niet alleen sneller AI inzetten, maar dit doen binnen structuren die kunnen worden verdedigd, gecontroleerd en onderhouden.
Veelgestelde Vragen
Wat hebben F5 en Red Hat aangekondigd?
F5 heeft zijn oplossingen voor Red Hat OpenShift uitgebreid met F5 WAF for NGINX op NGINX Gateway Fabric en quickstarts voor AI binnen Red Hat OpenShift AI.
Wat biedt F5 WAF for NGINX in OpenShift?
Het maakt het mogelijk om laag-7-beveiliging voor applicaties en API’s in Kubernetes-omgevingen te integreren, met declaratief beheer en ondersteuning voor DevOps-workflows.
Wat is de rol van NGINX Gateway Fabric?
Het fungeert als basis voor het beheren van verkeer en gateways in Kubernetes, en stelt organisaties in staat om beveiligings- en applicatieleveringsmogelijkheden naadloos te integreren in cloud-native architecturen.
Waarom is dit relevant voor AI-toepassingen?
Omdat AI-toepassingen vaak gekoppeld zijn aan gevoelige data, API’s en interne tools. Daarmee ontstaan risico’s op datalekken, prompt-injectie, misbruik, niet-geautoriseerde antwoorden en blootstelling van vertrouwelijke informatie.
vía: f5.com
