Red Hat wil zakelijke AI industrialiseren: een overkoepelend platform “van het metaal tot de agenten”

La Inteligencia Artificial en las empresas está evolucionando rápidamente. El mercado avanza desde los chatbots de prueba hacia flujos de trabajo complejos, con agentes que encadenan tareas y requieren acceso constante a datos, modelos y herramientas. Muchas organizaciones todavía permanecen en la fase de pilotos, gestionando modelos como proyectos aislados, con infraestructuras fragmentadas y ciclos de vida poco integrados. En este contexto, Red Hat presenta Red Hat AI Enterprise, una plataforma integrada para desplegar y administrar modelos, agentes y aplicaciones de IA en nube híbrida, acompañada de Red Hat AI 3.3, una actualización que refuerza su catálogo, capacidad de observabilidad y soporte de hardware.

La propuesta de la compañía es clara: si la IA quiere dejar de ser un experimento, debe funcionar como el software empresarial tradicional, con gobernanza, reproducibilidad y control. Joe Fernandes, vicepresidente y responsable de la unidad de negocio de IA en Red Hat, señala que esto es una obligación de diseño: para generar valor real, la IA debe “integrarse” como un componente central del stack, no como un silo separado. Esto da origen al eslogan “metal-to-agent” (de lo físico a los agentes): unificar desde la base (Linux y Kubernetes) hasta la inferencia y la capa de agentes.

Unificación del ciclo de vida: de “probar modelos” a gestionar sistemas corporativos

Red Hat AI Enterprise se posiciona como una plataforma que busca unificar el ciclo de vida de modelos y aplicaciones de IA, permitiendo a los equipos de TI gestionar la IA como un sistema estandarizado, en lugar de una colección de herramientas desconectadas. La solución se apoya en componentes ya conocidos del ecosistema Red Hat: Red Hat Enterprise Linux y Red Hat OpenShift, siendo OpenShift la columna vertebral para garantizar una experiencia consistente en entornos híbridos.

La plataforma forma parte del portafolio de Red Hat AI, que incluye Red Hat AI Inference Server, Red Hat OpenShift AI y Red Hat Enterprise Linux AI. Sobre estos pilares, Red Hat AI Enterprise añade capacidades esenciales para producción: inferencia de alto rendimiento, afinación y personalización de modelos, y despliegue y gestión de agentes, prometiendo compatibilidad con “cualquier modelo y cualquier hardware” en “cualquier entorno”.

Inferencia optimizada: vLLM y llm-d para escalar sin sobrecostes

La inferencia se ha convertido en el terreno clave de la IA empresarial: donde confluyen los costes recurrentes y la experiencia del usuario. Red Hat señala que su plataforma busca acelerar y escalar la inferencia usando el motor vLLM y el framework de inferencia distribuida llm-d, diseñados para despliegues de modelos generativos en infraestructuras híbridas.

Asimismo, se destacan dos elementos críticos para facilitar la transición de piloto a producción: observabilidad integrada y gestión del ciclo de vida. La intención es reducir riesgos y facilitar la gobernanza de la IA mediante un stack probado, interoperable, con seguridad reforzada y herramientas conocidas para equipos que ya operan con OpenShift y Linux en producción.

Red Hat AI Factory con NVIDIA: co-ingeniería para despliegues a gran escala

Como complemento, Red Hat lanza Red Hat AI Factory con NVIDIA, una oferta conjunta que combina Red Hat AI Enterprise con NVIDIA AI Enterprise para entornos que requieren implementaciones de IA a gran escala. Este enfoque busca acelerar la llegada a producción y ofrecer soporte desde el inicio (“Day 0”) para arquitecturas hardware de NVIDIA. La solución soporta infraestructuras de fabricantes como Cisco, Dell Technologies, Lenovo y Supermicro, reduciendo la distancia entre laboratorio y data center.

Red Hat AI 3.3: ampliación de modelos, control y soporte para hardware avanzado

La segunda parte del anuncio se centra en Red Hat AI 3.3, con un objetivo práctico: ampliar las opciones de modelos, fortalecer la consistencia operativa y optimizar el stack para hardware de nueva generación.

Entre las novedades más relevantes:

  • Ecosistema de modelos ampliado: versiones comprimidas y validadas para producción de Mistral-Large-3, Nemotron-Nano y Apertus-8B-Instruct en OpenShift AI. Además, se habilita el despliegue de modelos como Ministral 3 y DeepSeek-V3.2 con attention sparse, junto con mejoras multimodales, incluyendo una aceleración de en Whisper, soporte geoespacial, mejoras en decodificación especulativa EAGLE y un tool calling reforzado para flujos de agentes.
  • Models-as-a-Service (MaaS): vista previa que permite acceso self-service a modelos alojados de forma privada mediante un API gateway, facilitando que la IA esté disponible “bajo demanda” sin que cada implementación requiera un proyecto separado.
  • Soporte de hardware ampliado: soporte en vista previa para inferencia generativa en CPU, empezando por Intel para modelos de lenguaje pequeño (SLM), además de certificaciones para NVIDIA Blackwell Ultra y soporte para aceleradores AMD MI325X.
  • Red Hat AI Python Index: un repositorio confiable con versiones empresariales de herramientas clave, como Docling, SDG Hub y Training Hub, que facilita pasar de experimentación a pipelines repetibles y seguras.
  • Observabilidad y seguridad: telemetría en tiempo real sobre salud, rendimiento y comportamiento de modelos, con una vista previa de NeMo Guardrails para reforzar la seguridad operativa y la coherencia en interacciones.
  • GPU-as-a-Service interno: orquestación para acceso bajo demanda a GPU, con recursos agrupados y checkpointing automático para guardar el estado de trabajos prolongados, minimizando pérdidas y mejorando la previsibilidad de costes incluso en entornos dinámicos o preemptibles.

El común denominador de todas estas innovaciones es ofrecer a CIOs y responsables de plataforma la capacidad de que desplegar IA sea una tarea de ingeniería reproducible, más allá del “arte”. Red Hat busca posicionar su oferta como un puente entre la estabilidad de misión crítica y la innovación rápida que exige la IA.


Preguntas frecuentes (FAQ)

¿Qué es Red Hat AI Enterprise y qué papel juega en una estrategia de nube híbrida?
Es una plataforma integrada para desplegar y gestionar modelos, agentes y aplicaciones de IA en entornos híbridos, unificando el ciclo de vida de la IA sobre Red Hat Enterprise Linux y Red Hat OpenShift.

¿Por qué vLLM y llm-d son esenciales en inferencia de modelos generativos en producción?
Porque Red Hat los utiliza como base para acelerar y escalar la inferencia, incluyendo escenarios distribuidos, con el fin de optimizar costos y rendimiento en infraestructuras híbridas.

¿Qué implica Models-as-a-Service (MaaS) en Red Hat AI 3.3?
Una vista previa que permite ofrecer acceso self-service a modelos privados mediante una API, centralizando y simplificando el consumo interno de IA.

¿Cómo ayuda GPU-as-a-Service con checkpointing automático en proyectos empresariales de IA?
Facilita la compartición y orquestación de recursos GPU como servicio interno, además de guardar automáticamente el estado del trabajo en ejecución, reduciendo pérdidas y haciendo más predecibles los costes.

vía: redhat

Scroll naar boven