El acuerdo entre Anthropic y SpaceX para aprovechar toda la capacidad del centro de datos Colossus 1 puede parecer, a simple vista, una decisión contradictoria. Elon Musk ha sido crítico durante años con algunos rivales en inteligencia artificial, y xAI compite directamente con Anthropic en la carrera por los modelos de frontera. Sin embargo, desde una perspectiva de infraestructura, la lógica detrás de esta estrategia resulta mucho más clara: aunque Colossus 1 pueda ser menos atractivo como clúster de entrenamiento para xAI, resulta muy valioso como plataforma de inferencia para modelos como Claude.
Anthropic ha confirmado un acuerdo con SpaceX para usar toda la capacidad de cómputo del centro de datos Colossus 1. Según la compañía, esto les proporcionará más de 300 MW de nueva capacidad y más de 220.000 GPU NVIDIA disponibles en aproximadamente un mes. Los objetivos inmediatos son ampliar los límites de uso de Claude Code, eliminar restricciones en horas punta para planes Pro y Max, y aumentar los límites de API para los modelos Claude Opus.
Un clúster inmenso, pero no necesariamente ideal para entrenar
Colossus 1 es uno de los mayores clústeres de inteligencia artificial conocidos. xAI lo describe como una infraestructura con más de 220.000 GPU NVIDIA, incluyendo modelos H100, H200 y GB200. La variedad de generaciones es relevante: para algunos usos, esto representa una ventaja, dado la enorme capacidad disponible. Sin embargo, para el entrenamiento distribuido de modelos de frontera, una arquitectura heterogénea puede suponer un problema.
El entrenamiento a gran escala requiere una sincronización muy precisa: miles o incluso decenas de miles de GPU deben avanzar en paralelo en cada paso. Si alguna parte del clúster funciona más rápido o más lento, las GPU más potentes deben esperar a las más lentas, fenómeno conocido como “efecto retraso” (straggler effect). Esto reduce la utilización efectiva del sistema. Recientemente, se ha mencionado un índice llamado MFU (Model FLOPs Utilization), que en el caso de xAI se estima en apenas un 11 %, muy por debajo del 40 % que suele citarse para otros grandes centros de datos.
Es importante tomar estos datos con cautela, pues no provienen de una auditoría pública completa. Sin embargo, reflejan una dificultad conocida en la operación de estos clusters: entrenar modelos enormes no solo implica disponer de hardware, sino también contar con software, red, topología, programación, refrigeración, suministro eléctrico y procesos de depuración extremadamente afinados. Un clúster de 220.000 GPU, en bruto, puede parecer impresionante, pero puede ser difícil de aprovechar al máximo si mezcla hardware heterogéneo con diferentes características.
La misma nota oficial de xAI indica que Colossus 1 fue diseñado para entrenamiento, ajuste fino, inferencia y cálculos de alto rendimiento. Sin embargo, Elon Musk añadía en X, según Reuters, que SpaceX había trasladado sus esfuerzos principales en entrenamiento de IA a Colossus 2. Ese detalle resulta clave: si xAI ha desplazado su principal actividad de entrenamiento a otro clúster, entonces Colossus 1 deja de ser la base central de su trabajo técnico, pasando a convertirse en un activo rentable para inferencia y servicios de producción.
Inferencia versus entrenamiento: diferentes requisitos de sincronización
La diferencia principal entre entrenamiento e inferencia explica en parte la naturaleza del acuerdo. El entrenamiento de modelos avanzados exige que decenas de miles de GPU trabajen sincronizadas durante semanas o meses. En cambio, la inferencia puede distribuir las peticiones entre grupos de GPU de forma más flexible y tolerante a heterogeneidades. Aunque no está exento de retos, este proceso es más tolerant en términos de sincronización global.
Para Anthropic, que está viendo crecer el uso de Claude Code y modelos Opus, lo prioritario no es entrenar el próximo modelo en Colossus 1. Lo urgente es atender a más usuarios, gestionar más sesiones de programación, procesar más peticiones de API y soportar cargas empresariales. En este contexto, disponer de 220.000 GPU adicionales permite incrementar rápidamente la capacidad operativa, aunque el clúster no sea ideal para entrenamientos extremos de modelos distribuidos.
Además, esto explica por qué Anthropic puede acceder a un activo que quizá no es óptimo para xAI en su función original. Un clúster mixto con H100, H200 y GB200, aunque puede penalizar en tareas que requieren sincronización global, resulta mucho más rentable para inferencia, servicios de Claude, bots, colas de usuarios y capacidad API.
Otra ventaja es que Anthropic accede a toda esa capacidad como una única gran entidad, lo que simplifica la gestión y reduce problemas asociados a la multitenencia, como latencias impredecibles o interferencias entre cargas. Desde el punto de vista de SpaceX y xAI, también simplifica la operación: un solo contrato de gran volumen, con un uso intensivo de un activo que ya está instalado y operativo.
La estrategia financiera de Musk
Desde una perspectiva económica, el acuerdo también tiene sentido. Reuters señala que este pacto otorga a SpaceX un cliente principal en un momento clave, cuando la compañía prepara su salida a bolsa y busca convencer a inversores sobre sus ambiciones en inteligencia artificial. La infraestructura de cómputo, que antes solo representaba un coste elevado para entrenar modelos como Grok, empieza a adoptar también un papel generador de ingresos.
Es una visión importante: un laboratorio de IA que gasta miles de millones anualmente en entrenamiento de modelos tiene una narrativa financiera compleja. Por otro lado, una compañía que alquila capacidad de centros de datos a terceros y recibe ingresos recurrentes se asemeja más a una plataforma de infraestructura. No es casualidad que algunos análisis ya hablen de un “modelo de nube neoclásica”: propietarios de grandes clústeres que alquilan capacidad a laboratorios, startups y empresas que no pueden construir sus propias infraestructuras a esa escala.
Aunque las cifras exactas de rentabilidad del acuerdo no se han revelado, algunos análisis de mercado estiman que, si se valorara el uso de GPU por hora a precios elevados, el negocio podría generar varios miles de millones de dólares anuales. Sin embargo, estas estimaciones dependen de supuestos no confirmados: tarifas por GPU, niveles de utilización, duración de contratos, costes energéticos, depreciación, mantenimiento, red y personal operativo. Es importante interpretarlas como escenarios potenciales y no como cifras cerradas.
Lo cierto es que la naturaleza del activo cambió radicalmente. Colossus 1, que podría haber sido un clúster de entrenamiento difícil de aprovechar por su baja utilización efectiva, ahora, arrendado a Anthropic para inferencia y servicios de producción, transforma esa infraestructura en un flujo constante de caja. Lo que inicialmente parecía un posible problema operativo, ahora se convierte en una ventaja comercial.
Anthropic compra tiempo y capacidad
Para Anthropic, el acuerdo resuelve una necesidad igualmente urgente: disponer de capacidad suficiente para sostener el crecimiento de Claude, especialmente Claude Code. La compañía ha señalado que este acuerdo con SpaceX se suma a otros compromisos de cómputo, como la adquisición de hasta 5 GW con Amazon, un contrato de 5 GW con Google y Broadcom que empezará a materializarse en 2027, 30.000 millones de dólares en capacidad en Azure con Microsoft y NVIDIA, además de una inversión de 50.000 millones en infraestructura en EE. UU. junto a Fluidstack.
La conclusión es clara: Anthropic busca diversificar sus fuentes de capacidad, entrenando y ejecutando modelos en plataformas como AWS Trainium, Google TPU y GPUs NVIDIA. La demanda sigue creciendo, los límites de uso impactan en la experiencia del usuario, y tener acceso a más recursos de cómputo es clave para mantener la competitividad.
Este acuerdo con SpaceX también envía un mensaje comercial inmediato: mayor capacidad para usuarios de pago y menos restricciones para Claude Code. No se trata solo de infraestructura futura, sino de una mejora concreta en la experiencia y en la disponibilidad para los clientes.
Orbital AI: una mirada hacia el futuro
El pacto incluye una propuesta más futurista: Anthropic ha expresado interés en colaborar con SpaceX para desarrollar capacidad de cómputo orbital en varias gigavatios. Aunque la idea de centros de datos en el espacio puede sonar extrema, responde a un problema tangible: la energía, el espacio, la refrigeración y los permisos representan obstáculos físicos para ampliar la IA en la Tierra.
Reuters informa que Anthropic ve interés en esa posibilidad y que SpaceX desea convertir el cómputo orbital en una de sus grandes narrativas de futuro. En su comunicado, xAI destaca que SpaceX es una de las pocas organizaciones con capacidad de lanzamiento frecuente, economía de masa en órbita y experiencia en constelaciones, lo que podría convertir el cómputo espacial en un programa de ingeniería en lugar de solo una investigación.
A corto plazo, sin embargo, lo esencial sigue siendo la infraestructura terrestre. Colossus 1 brinda capacidad inmediata a Anthropic y permite a SpaceX y xAI demostrar que sus centros de datos pueden generar ingresos más allá del uso interno. La parte orbital refleja una visión de largo plazo, pero la infraestructura en tierra sigue siendo la base del acuerdo.
Este movimiento confirma la nueva realidad de la economía en el campo de la IA: la ventaja competitiva ya no solo depende de tener el mejor modelo, sino también de acceso a energía, GPU, red, refrigeración, software, clientes dispuestos a pagar y capacidad de inferencia. En este contexto, un clúster imperfecto puede ser un activo poco útil para ciertas tareas y muy eficiente para otras.
Musk no entregó Colossus 1 a un rival por necesidad. Transformó un clúster potencialmente menos eficiente para entrenamiento en una fuente de capacidad para inferencia, justo donde Anthropic necesitaba soporte. Mientras xAI sigue centrada en Colossus 2 para entrenar nuevos modelos, SpaceX busca monetizar Colossus 1 con un cliente relevante. Es una rotación estratégica de activos, no una rendición.
Preguntas frecuentes
¿Qué acuerdo ha alcanzado Anthropic con SpaceX?
Anthropic usará toda la capacidad de Colossus 1, con más de 300 MW y 220.000 GPU NVIDIA, en aproximadamente un mes, para ampliar la capacidad de Claude.
¿Por qué xAI cede capacidad a un competidor?
Porque SpaceX ya ha trasladado sus esfuerzos en entrenamiento de IA a Colossus 2, y Colossus 1 puede ser más rentable para inferencia y uso productivo que como centro principal de entrenamiento.
¿Por qué un clúster mixto presenta problemas para entrenar IA?
El entrenamiento distribuido requiere que muchas GPU avancen sincronizadas. La heterogeneidad en velocidades o retrasos en red puede ocasionar que las GPU más rápidas esperen, reduciendo la utilización efectiva.
¿Por qué Anthropic puede aprovechar Colossus 1 para inferencia?
La inferencia tolera mejor la heterogeneidad de hardware. Varias peticiones pueden distribuirse entre grupos de GPU, haciendo más útil un clúster heterogéneo en tareas de servicio y API.
