Cisco verhoogt de inzet voor AI-netwerken met Silicon One G300 en switches van 102,4 Tbps

La carrera por escalar centros de datos para la Inteligencia Artificial ya no se decide solo por quién posee más GPUs, sino por quién logra que trabajen a “pleno rendimiento” sin quedarse esperando a la red. En ese momento, el cuello de botella pasa de ser la potencia de cálculo a la transferencia de datos: latencias, congestión, pérdidas de paquetes y una operativa cada vez más compleja a medida que los despliegues se multiplican más allá de los hiperescalares.

En Cisco Live EMEA (Ámsterdam), Cisco presentó una nueva serie de soluciones diseñadas para esa “segunda fase” de la IA en el centro de datos: el Silicon One G300, un chip de conmutación de 102,4 Tbps, nuevos sistemas Cisco N9000 y Cisco 8000 basados en ese silicio, ópticas de alta densidad para enlaces de próxima generación y una evolución en su capa de gestión con Nexus One. Este último busca simplificar el despliegue y la administración de fabrics para IA, tanto en instalaciones locales como en la nube.

La red ya forma parte del “compute”

El mensaje de Cisco se alinea con una idea que hoy repiten casi todos los grandes operadores de infraestructura: en entrenamiento e inferencia a gran escala, la red deja de ser un accesorio y se convierte en un componente del propio rendimiento del clúster. Si los datos no llegan a tiempo, la GPU no produce; y si la GPU no produce, la factura por hora se dispara.

Cisco cuantifica esa tensión con números: su propuesta de “Intelligent Collective Networking” —integrada en Silicon One G300— promete mejoras de hasta el 33 % en utilización de la red y una reducción del 28 % en el tiempo para completar tareas en comparación con escenarios simulados con rutas no optimizadas. En términos comerciales: más trabajo realizado con la misma infraestructura de aceleradores y, por tanto, más productividad por GPU-hora.

¿Qué es Silicon One G300 y qué cambios trae?

Silicon One G300 se describe como un silicio de conmutación diseñado para clústeres masivos y distribuidos, con tres prioridades: rendimiento, seguridad y fiabilidad. Cisco resalta varias características para abordar los problemas clásicos del tráfico de IA (picos, sensibilidad a microcortes y pérdidas que penalizan considerablemente):

  • Buffer compartido de gran capacidad para absorber picos sin provocar pérdidas que “atasquen” los trabajos.
  • Balanceo basado en rutas para mejorar la distribución del tráfico y reaccionar rápidamente ante fallos de enlace.
  • Telemetría proactiva que permite que la operación no vaya a ciegas cuando crece la red.
  • Programabilidad que facilita la evolución de funcionalidades tras el despliegue, protegiendo la inversión.
  • Seguridad integrada en hardware para aplicar controles a velocidad de línea sin sacrificar el throughput.

El enfoque busca responder a una necesidad crítica: conforme la IA se “democratiza” y llega a entornos como neoclouds, nubes soberanas, operadores y empresas, la red debe escalar sin requerir una plantilla de especialistas difícil de encontrar.

Nuevos N9000 y 8000: del silicio al sistema (y al rack)

Cisco complementa el anuncio con nuevos sistemas N9000 y 8000 (fijos y modulares) basados en G300, diseñados para responder a las exigencias térmicas y eléctricas de estos entornos. Una de las características más destacadas es la opción de diseño 100 % refrigerado por líquido. Cisco vincula esta opción a una mejora en eficiencia energética de casi 70 % y a una mayor densidad de ancho de banda, permitiendo concentrar en un solo sistema lo que antes requería varios equipos de generaciones anteriores.

Desde una perspectiva práctica, cuando un clúster empieza a medir potencia en megavatios y a hablar de racks densos, la refrigeración deja de ser un asunto de “infraestructura” y pasa a formar parte del diseño de la red misma.

Ópticas para la era 1,6T y el ahorro de vatios

La conectividad también evoluciona. Cisco anunció dos líneas principales:

  • Ópticas OSFP de 1,6T, orientadas a enlaces switch-NIC y conexiones switch-servidor con opciones de 1,6T, 800G, 400G y 200G.
  • Ópticas LPO (Linear Pluggable Optics) de 800G, que prometen reducir en un 50 % el consumo del módulo en comparación con ópticas retimed. Cisco añade que, al combinar LPO con estos nuevos sistemas, también se podría recortar hasta un 30 % el consumo total del switch, mejorando su fiabilidad y sostenibilidad.

En un mercado donde cada vatio cuenta —por costos y límites en el suministro eléctrico—, estas cifras dejan de ser meros argumentos de marketing para convertirse en una palanca tangible para reducir costes operativos.

Nexus One y “AgenticOps”: menos fricción para los equipos de TI

Más allá del hardware, Cisco promueve una idea: no es posible escalar IA si cada ampliación del fabric es un proyecto artesanal. Por eso presenta Nexus One como una plataforma de gestión unificada que conecta silicio, sistemas, ópticas, software y automatización, ofreciendo una experiencia operativa coherente.

Entre las novedades destacan:

  • Unified Fabric para desplegar y adaptar redes incluso en múltiples sedes, con automatización vía API.
  • Observabilidad “job-aware”: correlacionar telemetría de red con el comportamiento de cargas de IA.
  • Integración nativa con Splunk, prevista para marzo, que permite analizar la telemetría “donde vive el dato”, sin necesidad de moverla fuera del entorno.

Además, Cisco presenta AI Canvas como interfaz para “AgenticOps” en redes de centros de datos. Se trata de un sistema de troubleshooting guiado, con conversaciones “human-in-the-loop” que ayudan a traducir problemas complejos en acciones concretas.

Una estrategia que mira más allá del hiperescala

Cisco sostiene que esta generación de soluciones está pensada para un perfil de cliente más amplio: hiperescalares, neoclouds, nubes soberanas, operadores y empresas. Para reforzar su mensaje, acompaña el anuncio con una lista de alianzas y validaciones en el ecosistema (AMD, Intel, NVIDIA, NetApp, DDN, VAST, entre otros), destacando que en IA el valor no radica en una pieza aislada, sino en la integración completa: red, cómputo, almacenamiento y operaciones.

Cisco asegura que los sistemas basados en G300, junto con las nuevas ópticas, se enviarán durante este año, marcando el inicio de una etapa en la que la infraestructura de red para IA se convierte en un elemento estratégico en sí mismo.


Preguntas frecuentes

¿Qué significa que un chip de switching tenga una capacidad de 102,4 Tbps?
Indica que el silicio puede gestionar un volumen masivo de tráfico dentro del switch, habilitando más puertos de alta velocidad y mayor densidad de ancho de banda para fabrics de IA a gran escala.

¿Por qué la refrigeración líquida empieza a ser protagonista en equipos de red?
Porque las demandas de densidad y consumo, con enlaces de 800G y 1,6T, requieren sistemas que ofrezcan rendimiento sostenido y mayor eficiencia energética en entornos muy exigentes.

¿Qué es LPO 800G y por qué es importante en los centros de datos para IA?
LPO (Linear Pluggable Optics) reduce la electrónica interna en comparación con ópticas retimed, disminuyendo el consumo del módulo. En redes con miles de enlaces, ese ahorro se traduce en menos calor, menos vatios y mayor margen operativo.

¿Qué aportan una gestión unificada como Nexus One en un fabric de IA?
Reduce la complejidad del despliegue y operación, mejora la visibilidad integral (de red a GPU) y facilita la automatización y resolución de problemas, especialmente en entornos con múltiples sedes o requisitos de soberanía de datos.

vía: newsroom.cisco

Scroll naar boven