Intel en SambaNova bundelen krachten voor inferentie: Xeon als basis voor een “heterogeen datacenter” voor het agentische tijdperk

La fiebre por la Inteligencia Artificial ya no se mide únicamente en la capacitación de modelos gigantes, sino también en aspectos más cotidianos y, para muchas empresas, más costosos a largo plazo: la inferencia. Ejecutar modelos en producción — en tiempo real, con una latencia controlada y costes previsibles — está llevando a los responsables tecnológicos a reconsiderar la infraestructura del centro de datos. En ese contexto, Intel y SambaNova han anunciado una colaboración estratégica plurianual con un objetivo claro: desarrollar soluciones de inferencia “de alto rendimiento y rentabilidad” sobre infraestructura basada en Intel Xeon.

El anuncio llega con un diagnóstico compartido: las cargas de trabajo de IA son cada vez más variadas y complejas, lo que impulsa la demanda de infraestructura heterogénea, donde conviven diferentes tipos de cómputo, memoria y red en una misma plataforma de software coherente. Ya no existe una “máquina universal”; muchas organizaciones buscan un conjunto de opciones bien integradas, optimizadas para casos específicos y escalables a gran volumen.

Por qué Xeon vuelve a ser protagonista en la conversación sobre IA

En el último año, la atención pública se ha centrado en aceleradores, GPUs y racks completos. Sin embargo, Intel sostiene que hay espacio para un enfoque basado en CPU —al menos en ciertos perfiles de inferencia— y en la eficiencia operativa que ofrece un despliegue estandarizado. La propuesta es sencilla: para cargas adecuadas al enfoque de SambaNova, la combinación de CPUs Intel y la plataforma de SambaNova puede ofrecer una solución de inferencia “a nivel de rack”, especialmente mientras las soluciones con GPU de Intel siguen madurando.

Intel aclara que esta alianza no reemplaza su estrategia centrada en GPUs ni altera su hoja de ruta para competir en IA. Más bien, se presenta como un complemento: añadir una vía adicional para captar la expansión de un mercado de inferencia que mueve miles de millones, con un enfoque que se ajusta a las necesidades de compra de muchas empresas y organismos públicos, donde el coste total de propiedad y la estandarización son tan importantes como el rendimiento máximo.

El enfoque SambaNova: financiación Serie E y foco en inferencia a escala

Este anuncio coincide con la participación de Intel Capital en la ronda Serie E de SambaNova. En el ámbito financiero, se ha informado de una ronda de 350 millones de dólares, liderada por Vista Equity Partners y Cambium Capital, con participación de Intel Capital. SambaNova, que compite en un mercado de hardware y plataformas de inferencia cada vez más competitivo, busca ampliar su capacidad y acelerar despliegues comerciales.

Según Reuters, SoftBank sería el primer gran cliente en desplegar el chip SN50 de SambaNova en centros de datos de IA en Japón. Además, en el ámbito corporativo llama la atención que el CEO de Intel, Lip-Bu Tan, ocupa también el cargo de presidente ejecutivo (executive chairman) en SambaNova, lo que refleja cómo la carrera por alternativas a NVIDIA está reordenando alianzas e inversiones estratégicas.

SambaNova e Intel, en conjunto, enmarcan su colaboración en una necesidad compartida por el mercado: ofrecer a empresas, proveedores de modelos, organizaciones “AI-native” y gobiernos un camino más directo hacia la inferencia de alto rendimiento, sin que toda la infraestructura dependa exclusivamente de un único tipo de acelerador.

Heterogeneidad como estrategia: combinar CPU, GPU, red y almacenamiento

Aunque el titular inmedioto es “Xeon”, Intel deja claro su objetivo: contribuir a definir la próxima generación de centros de datos heterogéneos, integrando Intel Xeon, Intel GPUs, red y almacenamiento, junto con sistemas de SambaNova. Es una visión que refleja lo que ya se observa en producción: la inferencia se dispersa en múltiples escenarios, desde servicios en la nube hasta despliegues empresariales con restricciones de soberanía y latencia, lo que requiere gestionar una variedad de recursos con observabilidad, gestión y seguridad coherentes.

En el fondo, el desafío que intentan resolver va más allá de lo técnico: es operativo. Muchas organizaciones han descubierto que escalar IA implica lidiar con complejidad: diferentes cadenas de herramientas, incompatibilidades y decisiones difíciles entre rendimiento, coste y disponibilidad. Una solución “lista para rack” busca reducir esa fricción: unificar arquitecturas, simplificar despliegues y acercar la inferencia a una infraestructura estándar y gestionable.

Contexto de mercado: inferencia, agentes y presión por eficiencia

Este anuncio llega en un momento en que la narrativa del sector se desplaza hacia agentes y flujos de trabajo más autónomos. En estos entornos, la inferencia no es un evento único, sino un proceso continuo: se repite, encadena, consulta contexto, llama a herramientas y mantiene sesiones activas. Esto hace que el coste por token, el throughput sostenido y la eficiencia energética por unidad de servicio sean aspectos críticos. Para muchos compradores, la clave es “hacer más con menos”: más consultas, más tareas y mayor fiabilidad, sin multiplicar proporcionalmente el gasto.

En ese contexto, Intel intenta posicionar a Xeon como una base útil para inferencia en ciertos casos, y SambaNova busca diferenciarse con una plataforma que no dependa exclusivamente del “camino único” de las GPUs dominantes.

Implicaciones para empresas y sector público

Para los responsables de plataformas, el anuncio sugiere tres consideraciones prácticas:

  1. Más opciones para el diseño de inferencia: no todo debe resolverse con el mismo patrón de aceleración si hay perfiles de carga de trabajo donde un diseño centrado en CPU o híbrido ofrece ventajas evidentes.
  2. Consolidación “a nivel de rack”: la tendencia a adquirir sistemas integrados y validados crece a medida que la inferencia se pone en operación continua. Se busca reducir la integración artesanal, los tiempos de puesta en marcha y los riesgos asociados.
  3. Infraestructura heterogénea como norma: la IA empresarial evoluciona hacia una combinación de recursos y capas de software. Las alianzas que simplifican y unifican partes del stack pueden ganar terreno si reducen la complejidad y mejoran el coste total de propiedad.

En definitiva, Intel y SambaNova buscan capitalizar una idea que empieza a consolidarse: la próxima era de la IA se decide en producción, y esa producción pasa por una inferencia eficiente, repetible y gestionable.


Preguntas frecuentes (FAQ)

¿Qué es la inferencia en Inteligencia Artificial y por qué será un mercado clave en 2026?
La inferencia consiste en ejecutar modelos previamente entrenados para generar respuestas, clasificaciones, resúmenes o asistir en procesos en tiempo real. A diferencia del entrenamiento, que es un proceso intensivo y de preparación del modelo, la inferencia se realiza en producción, controlando los costes operativos y optimizando la experiencia del usuario.

¿En qué casos tiene sentido una solución de inferencia basada en Intel Xeon?
Es especialmente adecuada cuando la estandarización, el coste total de propiedad, la facilidad de despliegue y perfiles de rendimiento determinados permiten que las cargas se ejecuten de manera eficiente sobre CPU (o en arquitecturas híbridas), particularmente en ámbitos empresariales y públicos.

¿Qué significa “infraestructura heterogénea” en centros de datos de IA?
Implica combinar diferentes tipos de recursos: CPU, GPU y aceleradores específicos, memoria, red y almacenamiento, todo gestionado mediante una plataforma de software coherente, eligiendo la mejor herramienta para cada parte del pipeline de IA.

¿Por qué Intel Capital invierte en SambaNova y qué papel juega la ronda Serie E?
La inversión de Intel Capital en la Serie E refuerza su estrategia de alianzas para ampliar las opciones en inferencia. La ronda, de 350 millones de dólares, liderada por Vista y Cambium, cuenta con participación de Intel Capital y busca potenciar la capacidad de SambaNova para acelerar despliegues y desarrollo de hardware y plataformas.

vía: sambanova.ai

Scroll naar boven