NVIDIA ha presentado en CES 2026 dos innovadores sistemas destinados a llevar la inteligencia artificial (IA) de gran escala directamente al escritorio del desarrollador. Se trata de los NVIDIA DGX Spark y DGX Station, soluciones “deskside” que permiten a equipos de ingeniería, investigación y ciencia de datos experimentar, ajustar y ejecutar modelos avanzados de manera local, con la opción de escalar posteriormente a la nube.
Este movimiento responde a una tendencia creciente: si bien el software abierto impulsa la innovación en IA, las cargas de trabajo modernas —como la búsqueda aumentada y generación (RAG), agentes inteligentes y razonamiento multietapa— requieren memoria unificada, rendimiento sostenido y herramientas altamente optimizadas. En este contexto, NVIDIA propone que DGX Spark y DGX Station funcionen como un puente entre el laboratorio personal y la infraestructura empresarial, minimizando la fricción al trabajar con modelos cada vez más pesados sin depender exclusivamente de racks remotos.
La oferta se estructura en dos niveles claros. Por un lado, DGX Spark está dirigido a un uso más amplio y flexible. Es un sistema compacto, listo para conectarse y comenzar a trabajar, preparado para ejecutar y ajustar modelos de última generación en el propio escritorio, soportando modelos de hasta 100 mil millones de parámetros. Por otro, DGX Station apunta a entornos de frontera, como laboratorios de investigación y grupos de ingeniería avanzada, permitiendo experimentar con modelos de hasta un billón de parámetros en un entorno local, gracias a su potente hardware basado en la arquitectura Grace Blackwell y 775 GB de memoria coherente.
Uno de los principales avances que destacan desde NVIDIA es el uso del formato NVFP4, asociado a Blackwell, que permite comprimir modelos en un 70 % y mejorar el rendimiento sin perder capacidad. Esto resulta esencial en un entorno de escritorio, donde la memoria y los costos de transferencia de datos son limitantes. Además, работают en optimizaciones y colaboraciones abiertas, como con llama.cpp, que han logrado mejorar en promedio un 35 % el rendimiento en modelos punteros, además de reducir los tiempos de carga de modelos de lenguaje grande (LLM).
DGX Spark está configurado para apoyar modelos de hasta 200 mil millones de parámetros, con hasta 128 GB de memoria unificada, facilitando tareas de desarrollo, ajuste y validación localmente. Por su parte, DGX Station combina hardware avanzado y memoria coherente para ofrecer capacidades similares en un formato más portátil y accesible, con la posibilidad de mover modelos de hasta un billón de parámetros en un sistema de escritorio.
En demostraciones en vivo, NVIDIA mostró cómo estos sistemas pueden realizar tareas complejas: preentrenamiento a 250 mil tokens por segundo, visualización de millones de puntos y construcción de grafos de conocimiento con “texto a knowledge graph”. También evidenció su utilidad en generación de video y agentes interactivos, como con el robot Reachy Mini, que combina visión, voz y respuesta motora para ejemplificar un entorno de IA tangible y de alta capacidad en el escritorio.
El ecosistema de NVIDIA respalda estos lanzamientos a través de diversos socios comerciales, incluyendo marcas como ASUS, Dell, GIGABYTE y Lenovo, con disponibilidad prevista para la primavera de 2026 y soporte en su plataforma NVIDIA AI Enterprise, que asegura soporte de software y soporte técnico. La estrategia de NVIDIA combina desarrollo local seguro con la posibilidad de escalar a infraestructura de centro de datos y nube, reconociendo que la IA moderna requiere una aproximación híbrida para gestionar costos, control y rendimiento.
Este movimiento representa un paso significativo para que la IA avanzada sea más accesible y práctica en entornos de trabajo diario, permitiendo a los investigadores y desarrolladores validar y prototipar modelos complejos sin salir de su oficina, antes de decidir si escalar a infraestructuras más grandes. En definitiva, NVIDIA busca democratizar el acceso a modelos de gran escala, acercando el poder de la IA de frontera a la mesa de trabajo del desarrollador, sin sacrificar capacidad ni rendimiento.
