OpenAI vivent une paradoxie propre au développement de l’intelligence artificielle : plus la demande augmente, plus dépend de l’infrastructure qu’elle ne contrôle entièrement. La société qui a popularisé ChatGPT avait promis —aux côtés d’Oracle et SoftBank— une avancée historique en capacité de centres de données sous l’égide de Stargate, mais le marché du « compute » est devenu une guerre d’énergie électrique, de terrains industriels et de puces qui n’attendent personne.
La promesse était ambitieuse : Stargate devait investir jusqu’à 500 milliards de dollars en quatre ans pour déployer un réseau d’infrastructures capable d’apporter 10 GW de capacité pour l’IA aux États-Unis, annonce faite publiquement en janvier 2025.
Un mégaprojet, plusieurs réalités
Officiellement, OpenAI présente Stargate comme une expansion accélérée : en septembre 2025, elle a annoncé cinq nouveaux sites de centres de données aux États-Unis, visant à atteindre bientôt près de 7 GW et respecter le calendrier des 10 GW.
Cependant, selon des sources internes sectorielles, la réalité serait toute autre : The Information a publié que le projet, en tant que « coentreprise » avec sa gouvernance et sa structure propres, aurait subi des blocages internes et des frictions concernant le leadership et les responsabilités financières, poussant OpenAI à rechercher des alternatives parallèles.
Cette tension —entre l’annonce publique et la complexité réelle de la mise en œuvre d’infrastructures de cette envergure— explique pourquoi Stargate ressemble davantage à un « umbrella » regroupant accords bilatéraux, partenaires locaux, fournisseurs d’énergie et entreprises de construction spécialisées, plutôt qu’à une œuvre linéaire unique.
La sortie : « contrôle sans propriété » et un cloud plus pluriel
En 2026, l’image qui se dessine est claire : OpenAI diversifie ses fournisseurs pour ne pas dépendre d’une seule source. Ces derniers mois, la société a renforcé sa présence sur AWS grâce à un accord pluriannuel, tout en maintenant ses partenariats avec Oracle et en intégrant la capacité d’autres acteurs comme Google Cloud.
Ce changement a des implications directes pour ses clients et partenaires : l’IA ne s’appuie plus uniquement sur « un grand centre de données », mais sur un réseau d’infrastructures distribué où chaque fournisseur apporte quelque chose de différent (accès aux puces, localisation, capacité réseau, énergie, rapidité de déploiement).
Même Reuters a rapporté en 2025 l’intégration peu habituelle de Google Cloud comme fournisseur, dans un contexte de demande croissante, après qu’Azure ait cessé d’être son fournisseur exclusif.
Le goulot d’étranglement : électricité, terrain et GPU
Derrière le récit du « cloud en expansion », se cache une réalité physique : la course à l’IA est aussi une course à l’énergie et au matériel. Par exemple, au Texas, SB Energy (liée à SoftBank) a prévu une installation de 1,2 GW en lien avec Stargate, rappelant que ces chiffres se mesurent déjà en capacité de réseau électrique, pas seulement en racks.
Par ailleurs, les hyperscalaires accélèrent leurs investissements : le marché s’interroge de plus en plus sur le montant que le secteur peut dépenser en IA en une seule année. Un rapport cité par Reuters évoquait une dépense conjointe prévue de près de 650 milliards de dollars par les grandes entreprises technologiques pour l’infrastructure IA en 2026.
Pas seulement NVIDIA : OpenAI cherche un « plan B » (et C) pour les puces
La pression ne concerne pas uniquement les centres de données, mais aussi le silicium. OpenAI a commencé à diversifier sa dépendance à NVIDIA pour certains scénarios, notamment l’inférence, en explorant d’autres fabricants et architectures.
En janvier 2026, OpenAI a annoncé un partenariat avec Cerebras pour ajouter 750 MW de calcul spécialisé à faible latence, déployé par phases à partir de 2026.
De plus, Reuters a rapporté début février 2026 qu’OpenAI recherchait des alternatives à certains GPU récents de NVIDIA, explorant des accords avec AMD, Cerebras et Groq, entre autres.
Cette stratégie a une lecture industrielle : quand le col de bouteille est mondial, garantir l’approvisionnement implique de ne pas se limiter à une seule voie technologique. Cela contribue également à réduire les risques liés aux calendriers : si une génération de GPU est retardée, ou si un fournisseur privilégie d’autres clients, l’opération ne s’arrête pas complètement.
La facture : le « compute » avale le futur
La conséquence évidente est le coût. Reuters a récemment indiqué qu’OpenAI prévoit de dépenser environ 600 milliards de dollars en « compute » jusqu’en 2030.
En résumé : si Stargate a été conçu comme une réponse structurelle majeure, la réalité immédiate consiste à acheter la capacité disponible, en concluant des accords avec des fournisseurs dotés d’un solide appui financier et d’un rythme de construction rapide, même si cela complexifie l’exploitation et réduit le contrôle direct.
Ce que cela signifie pour le marché (et pourquoi cela concerne l’Europe)
Pour l’écosystème technologique, cela envoie un message gênant : l’avantage compétitif en IA ne dépend plus uniquement des modèles et du talent, mais aussi des contrats d’énergie, des permis, des emplacements et du hardware. En 2026, cela se traduit déjà en décisions concrètes : alliances, préachats, investissements croisés et accords multi-voies pour ne pas rester à la traîne.
Il y a aussi une dimension géopolitique : si l’infrastructure se concentre entre les mains de peu d’acteurs capables de déployer des gigawatts, l’équilibre entre innovation et dépendance devient plus fragile. En pratique, la « souveraineté » de l’IA ne se décide pas seulement via des lois ou une stratégie industrielle, mais aussi à travers la capacité à construire, alimenter et équiper des centres de données avec des puces.
Questions fréquentes
Qu’est-ce que le projet Stargate d’OpenAI et quel est l’objectif de capacité visé ?
Stargate est une initiative annoncée en 2025 pour développer une infrastructure IA à grande échelle aux États-Unis, avec comme objectif final d’atteindre 10 GW de capacité, pour un investissement total pouvant aller jusqu’à 500 milliards de dollars.
Pourquoi OpenAI utilise-t-elle AWS et Google Cloud alors qu’ils sont concurrents en IA ?
Parce que le facteur limitant est la capacité de calcul : pour former et faire fonctionner des modèles à grande échelle, OpenAI doit disposer de capacités et d’un approvisionnement en puces dans plusieurs clouds. La diversification réduit les risques d’indisponibilité et accélère les délais.
Que apporte l’accord d’OpenAI avec Cerebras pour ChatGPT et l’inférence ?
Cela fournit une capacité de calcul orientée vers la basse latence et une haute disponibilité pour l’inférence, avec un plan de déploiement lié à 750 MW d’infrastructure, utile pour les cas où la vitesse de réponse est critique.
Quel est l’impact des investissements massifs dans les centres de données sur les entreprises qui veulent adopter l’IA ?
Cela peut améliorer l’accès à la capacité à moyen terme, mais aussi exercer une pression sur les prix, les délais et la disponibilité à court terme. La réussite des projets IA de nombreuses organisations dépendra de leur capacité à réserver des ressources cloud à temps.
via : digitimes
