AMD en Celestica versnellen Helios, hun open inzet voor IA-racks

AMD wil dat Helios deje de ser solo una promesa en su hoja de ruta y comience a materializarse como una plataforma real para centros de datos especializados en Inteligencia Artificial. La compañía anunció el 16 de marzo una colaboración estratégica con Celestica para llevar al mercado esta arquitectura de rack de nueva generación, diseñada para grandes despliegues de IA y basada en estándares abiertos. Este acuerdo posiciona a Celestica como responsable de I+D, diseño y fabricación de los conmutadores de interconexión interna del sistema, un componente clave en infraestructuras de IA a gran escala.

A simple vista, podría parecer otro anuncio más en medio de la avalancha de alianzas en el ámbito de la Inteligencia Artificial. Sin embargo, Helios apunta a algo más profundo. AMD no solo busca vender GPU o CPU; está promoviendo una arquitectura completa de rack para entrenamiento e inferencia con una vocación industrial, lista para su despliegue en la nube, en empresas o en el ámbito de la investigación. La disponibilidad para clientes está prevista para finales de 2026, lo cual confirma que la compañía quiere llegar a la próxima gran oleada de infraestructuras de IA con una propuesta más integrada y, sobre todo, más abierta que la de muchos rivales.

Helios ya no es solo un concepto en la hoja de ruta de AMD

Helios no surge de la nada este mes. AMD ha estado trabajando en esta plataforma durante más de medio año. En junio de 2025 la presentó como su próxima gran solución de rack para IA, basada en la generación más reciente de GPU Instinct, CPU EPYC “Venice” y NIC Pensando “Vulcano”. En octubre, vinculó además Helios al nuevo formato Open Rack Wide impulsado por Meta y dentro del Open Compute Project, y en enero de 2026 lo definió como el “blueprint” de una infraestructura a escala yotta, con hasta 3 exaflops de rendimiento en IA por rack, según sus propias estimaciones. Es decir, la colaboración con Celestica no implica que Helios comience desde cero; más bien, representa la transición de la visión técnica a la industrialización del sistema.

Este matiz es muy relevante porque el mercado de la IA ya no se mueve solo chip a chip, sino rack a rack. Las cargas de entrenamiento masivas y las inferencias distribuidas exigen plataformas completas en las que GPU, CPU, memoria, red y software funcionen como un conjunto coordinado. AMD ha entendido esto y desde hace tiempo intenta vender no solo aceleradores, sino una infraestructura más integrada, aunque abierta en estándares. Aquí encaja Helios: como un sistema completo que combina silicio, red, software ROCm y diseño físico de rack bajo una misma narrativa.

El papel de Celestica va mucho más allá del ensamblaje

Dentro de este plan, Celestica desempeña un papel menos visible que AMD, pero probablemente igual de crítico. Según el anuncio conjunto, la empresa canadiense se encargará de la investigación, diseño y fabricación de los switches de escalado en la arquitectura Helios, basados en el formato Open Compute Project Open-Rack-Wide. Estos switches emplearán tecnologías avanzadas de silicio para interconectar a alta velocidad las GPU AMD Instinct MI450 Series, utilizando además la arquitectura Ultra Accelerator Link over Ethernet, o UALoE.

Este aspecto no es menor: en los sistemas de IA de próxima generación, la interconexión interna del rack se ha convertido en uno de los principales cuellos de botella. Tener aceleradores potentes no basta; es fundamental que puedan comunicarse con latencias mínimas, gran ancho de banda y una topología que evite crear laberintos de ineficiencias. UALink y sus variantes sobre Ethernet nacen con esa misma intención: ofrecer un espacio de interconexión de aceleradores que ha permanecido cerrado y ligado a tecnologías propietarias durante años. El consorcio UALink promueve este enfoque como una forma de llevar ancho de banda alto y baja latencia a una especificación gestionada por la industria y no por un único proveedor.

Por tanto, Celestica no está aquí solo como ensamblador; participa como socio clave en la materialización de una pieza esencial del rack: la red interna que conecta las GPU y permite escalar el sistema. Esto refleja uno de los grandes mensajes de AMD en 2025 y 2026: reducir los tiempos de despliegue, mejorar la resiliencia de la cadena de suministro y ofrecer una alternativa basada en estándares abiertos y socios externos de fabricación.

La verdadera competencia está en el modelo de infraestructura

El anuncio también indica la dirección en la que AMD busca competir. La compañía no oculta que su estrategia en IA ya no solo se centra en comparar aceleradores, sino en defender una arquitectura de rack completa. En acuerdos anteriores, como los cerrados con Oracle y HPE, AMD ya vinculaba Helios a despliegues concretos. Oracle anunció en octubre de 2025 que sus futuros superclusters de IA se basarían en Helios, con una primera implantación pública de 50.000 GPU prevista para el tercer trimestre de 2026. HPE, por su parte, habló en diciembre de una versión del sistema con GPU MI455X capaz de alcanzar hasta 2,9 exaflops FP4 por rack, siempre según cifras de AMD y de la propia alianza.

Este contexto ayuda a entender por qué Helios es ahora tan importante. Lo que AMD busca construir no es solo una familia de productos, sino un ecosistema de rack a escala reproducible: un diseño de referencia que pueda desplegarse en nubes públicas, centros privados, entornos científicos o plataformas soberanas de IA, sin depender por completo de arquitecturas cerradas. El formato Open Rack Wide, presentado por Meta en OCP 2025 como un estándar abierto de rack doble ancho para cargas extremas de potencia, refrigeración y mantenimiento, encaja perfectamente con esa visión de infraestructura interoperable y escalable.

Asimismo, se transmite un mensaje industrial fundamental: AMD entiende que para competir realmente en IA a gran escala no basta con disponer de buenas GPU. Es necesario contar con una plataforma creíble, socios con capacidad de producción, software maduro y una red que soporte clusters cada vez mayores. Celestica aporta precisamente esa capacidad, con experiencia en diseño, fabricación, cadena de suministro y soluciones de infraestructura para centros de datos. La alianza busca resolver un problema práctico que muchos clientes ya enfrentan: desplegar sistemas de IA complejos sin que cada proyecto se vuelva una integración artesanal, lenta y de alto riesgo.

No obstante, es recomendable mantener cierta cautela. Helios sigue siendo, en buena medida, una plataforma de futuro. Sus componentes clave — MI450, UALoE a gran escala, switches de escalado y disponibilidad amplia a finales de 2026— forman parte de una hoja de ruta ambiciosa, no de un producto masivo ya instalado en cientos de centros de datos. Pero precisamente por eso, la colaboración con Celestica resulta significativa: demuestra que AMD ha superado la fase puramente conceptual y está empezando a concretar acuerdos de industrialización con socios capaces de transformar su diseño en hardware desplegable.

Preguntas frecuentes

¿Qué es exactamente la plataforma AMD Helios para IA?
Se trata de una arquitectura de rack a escala para Inteligencia Artificial desarrollada por AMD, que combina aceleradores Instinct de última generación, CPU EPYC “Venice”, red Pensando y una interconexión interna diseñada para grandes despliegues de entrenamiento e inferencia. AMD la presenta como una plataforma abierta basada en estándares del Open Compute Project.

¿Qué función tendrá Celestica en el proyecto Helios?
Celestica será responsable de la I+D, diseño y fabricación de los switches de interconexión interna del rack, componentes esenciales para interconectar rápidamente las GPU de la plataforma Helios.

¿Cuándo estará Helios disponible para los clientes?
AMD y Celestica han señalado que Helios estará listo para su despliegue en clientes a finales de 2026. Otros anuncios previos de AMD también establecen esa misma ventana para los grandes despliegues.

¿Por qué se insiste tanto en los estándares abiertos en esta plataforma de AMD?
Porque Helios se apoya en elementos como OCP Open Rack Wide y UALoE, con el objetivo de ofrecer una infraestructura más interoperable, escalable y menos dependiente de tecnologías propietarias en el núcleo del rack de IA.

Scroll naar boven