AMD versnelt haar inzet voor “AI voor iedereen” op CES 2026: Helios, nieuwe Instinct en een miljoeneninvestering in onderwijs

Durante la feria CES 2026 en Las Vegas, AMD presentó una visión ambiciosa del futuro de la Inteligencia Artificial (IA), centrada en la idea de una IA “en todas partes y para todos”. La compañía subrayó que para lograr esta conectividad universal, será imprescindible una infraestructura abierta, modular y escalable que pueda operar desde los centros de datos hasta los PCs y sistemas industriales en el borde de la red.

En su conferencia de apertura, Lisa Su, presidenta y CEO de AMD, lanzó una narrativa que va más allá de los simples lanzamientos de productos. Habló de una era de “computación a escala yotta”, donde el crecimiento simultáneo en entrenamiento e inferencia de modelos de IA marcará un cambio de paradigma en la tecnología. Esta visión se materializa en el concepto de Helios, una plataforma de rack a gran escala diseñada como una referencia para infraestructuras enormes de IA. AMD proyecta que esta plataforma podrá alcanzar más de 10 yottaflops en los próximos cinco años, a partir de una capacidad global actual de aproximadamente 100 zettaflops, lo que requerirá un rediseño completo en eficiencia energética, diseño de sistema y software.

Helios se define como una arquitectura modular y abierta, que integra aceleradores AMD Instinct MI455X, procesadores AMD EPYC “Venice” y tarjetas de red AMD Pensando “Vulcano”, todo conectado mediante el ecosistema de software AMD ROCm. La compañía asegura que esta solución podrá entregar hasta 3 exaFLOPS en un solo rack, orientada a entrenar modelos de billones de parámetros, maximizando el ancho de banda y la eficiencia energética. Esto refleja la tendencia actual en la industria, donde ya no basta con añadir GPU; es igualmente crucial optimizar la comunicación, la gestión de memoria y la eficiencia de la red.

Además, AMD presentó su acelerador AMD Instinct MI440X, dirigido a despliegues empresariales en instalaciones locales, permitiendo a las empresas entrenar y ejecutar modelos de IA sin necesidad de transformar por completo su infraestructura. La compañía también adelantó detalles de la próxima serie MI500, prevista para 2027, que se espera supere en rendimiento en hasta 1.000 veces a la generación actual, gracias a avances en arquitectura, proceso de fabricación de 2 nm y memoria HBM4E.

En el ámbito del usuario final, AMD mostró las plataformas Ryzen AI 400 Series y Ryzen AI PRO 400 Series, que incorporan una NPU de 60 TOPS y soporte para ROCm, con el objetivo de facilitar un crecimiento “de la nube al cliente”. Los sistemas con estas plataformas podrán manejar modelos de hasta 128.000 millones de parámetros, promoviendo una tendencia de descentralización de la IA en los dispositivos, en función de necesidades de privacidad, latencia, costos y continuidad operativa. Además, anunció la Ryzen AI Halo Developer Platform, destinada a desarrolladores y prevista para el segundo trimestre de 2026, que permitirá crear, probar y desplegar aplicaciones de IA sin depender exclusivamente de infraestructuras remotas.

En la visión de AMD, la IA también tiene un papel en el mundo físico, con anuncios de Ryzen AI Embedded, diseñados para sistemas embebidos en automoción, salud y robótica. La premisa es acercar la inferencia y la toma de decisiones al entorno real, donde la latencia y la fiabilidad son fundamentales.

En un contexto político y social, la CEO destacó la colaboración con entidades públicas, incluyendo a la Casa Blanca, para fortalecer el liderazgo de Estados Unidos en IA con iniciativas como Genesis Mission, que busca impulsar supercomputadores en laboratorios nacionales. Además, AMD anunció un compromiso de 150 millones de dólares para promover la educación en IA y tecnologías relacionadas, además de reconocer la participación de más de 15.000 jóvenes en su Hackathon de robótica con IA, reafirmando su apuesta por democratizar el acceso a la tecnología.

Para apoyar su estrategia, AMD contó con la participación de socios destacados como OpenAI, Blue Origin y AstraZeneca, que ya utilizan sus soluciones para avanzar en IA. La compañía insiste en su enfoque de plataforma abierta y co-innovación, como una vía para competir con otros líderes del mercado, principalmente NVIDIA, en un escenario donde la demanda por capacidad de computación de alta escala sigue en auge.

En resumen, AMD está perfilando un ecosistema completo para la IA, desde infraestructuras de enorme escala hasta soluciones accesibles para desarrolladores y usuarios finales, con una clara visión de un futuro en el que la inteligencia artificial permea todos los ámbitos de la vida tecnológica y cotidiana.

Scroll naar boven