Radware ha presentado su nuevo producto, el LLM Firewall, una capa adicional de protección diseñada específicamente para empresas que ya incorporan modelos de lenguaje (LLM) en sus productos, asistentes virtuales y flujos internos. La finalidad principal de esta herramienta es evitar ataques y abusos en la etapa inicial, específicamente en el “prompt” o solicitud del usuario, antes de que esta llegue al modelo de IA. Con la creciente adopción de la inteligencia artificial generativa, también aumenta la superficie de riesgo, haciendo imprescindible una defensa especializada.
El LLM Firewall se ofrece como un complemento (add-on) para todos los niveles de la suite Cloud Application Protection Services de Radware, siendo solo la primera fase en un plan de protección más amplio enfocado en escenarios de “IA agentic”, donde los agentes actúan de forma semi-autónoma. La compañía destaca que su enfoque es agnóstico respecto al modelo y que está diseñado para integrarse sin obstaculizar los despliegues existentes.
Esta evolución conceptual marca un cambio importante en la forma en que se protegen las aplicaciones web. Tradicionalmente, el WAF (Firewall de Aplicaciones Web) defendía contra ataques a nivel HTTP. Sin embargo, ahora se plantea como una defensa contra ataques en lenguaje natural, propios de los modelos de lenguaje a gran escala (LLMs). La compañía señala amenazas como la inyección en prompts (prompt injection), jailbreaks y abuso de recursos, que son detectadas y bloqueadas en tiempo real.
Este movimiento se alinea con las tendencias que Gartner sitúa como impacto importante para 2026, incluyendo la IA agentic, plataformas de gobernanza de IA y seguridad contra la desinformación. La velocidad de innovación en estos ámbitos supera a los controles tradicionales, lo cual subraya la necesidad de soluciones específicas y adaptadas.
Uno de los aspectos más críticos en el entorno empresarial es la protección de datos sensibles. La filtración de información confidencial a través de prompts, respuestas o herramientas conectadas al LLM puede tener consecuencias graves. Radware afirma que su LLM Firewall está diseñado para detectar y bloquear intentos de exfiltración de datos antes de que lleguen al modelo, ayudando a cumplir con normativas como GDPR y HIPAA. Este concepto también es reconocido en las recomendaciones de OWASP, que clasifica riesgos como la inyección en prompts y la exposición de información sensible en su Top 10 para aplicaciones con LLM.
El mercado en este ámbito se mueve rápidamente. Grandes actores como Palo Alto Networks y Google Cloud han anunciado alianzas y mejoras en sus soluciones para asegurar el desarrollo y despliegue de IA, ampliando la protección desde el código hasta la nube, incluyendo seguridad en tiempo de ejecución y agentes de IA. La tendencia es clara: las empresas quieren aprovechar las capacidades de la IA, pero sin abrir nuevas puertas a riesgos como filtraciones, suplantaciones o decisiones automatizadas descontroladas.
Para las organizaciones, no basta con confiar en un simple “firewall para prompts”. Lo recomendable es adoptar una estrategia múltiple o en capas que incluya inventario completo de los LLMs usados, políticas de manejo de datos, controles de acceso, monitorización activa y pruebas de penetración específicas en prompts. Solo así se puede gobernar el lenguaje y asegurar que la inteligencia artificial se utilice de forma segura y responsable.
En definitiva, la seguridad en la era de la IA generativa requiere gestionar más que la infraestructura; implica también gobernar los flujos de información y el lenguaje que estos modelos procesan. La incorporación de soluciones como el LLM Firewall de Radware es un paso en esa dirección, ayudando a las empresas a protegerse en un panorama cada vez más dinámico y desafiante.
