OpenAI bouleverse l'échiquier du cloud computing
OpenAI se libère de Microsoft pour s'allier avec Google Cloud : un coup de poker qui redéfinit les alliances dans l'IA et annonce une nouvelle ère d'indépendance technologique.

La stratégie d'indépendance d'OpenAI prend un tournant radical. Le créateur de ChatGPT vient de signer un accord historique avec Google Cloud, brisant définitivement son exclusivité avec Microsoft Azure. Un mouvement qui redessine les alliances technologiques dans le secteur de l'IA.
La fin d'un mariage de raison avec Microsoft
Depuis 2019, Microsoft avait misé gros sur OpenAI, plus de 13 milliards de dollars d'investissement contre un accès privilégié à ses technologies. Cette alliance permettait à OpenAI d'exploiter l'infrastructure Azure tandis que Microsoft intégrait les modèles GPT à ses produits Copilot et Bing.
Les tensions ont cependant émergé autour d'un point critique : la puissance de calcul. OpenAI, dont les besoins explosent avec chaque nouvelle génération de modèles, reprochait à Microsoft de ne pas fournir suffisamment de ressources informatiques. En janvier 2025, Microsoft a officiellement levé son exclusivité cloud, ouvrant la voie à de nouvelles alliances.
Cette évolution s'inscrit dans une renégociation globale de leur partenariat, particulièrement concernant l'après-2030 et la transformation progressive d'OpenAI en entreprise à but lucratif. Un changement qui impose de redéfinir les équilibres avec son investisseur historique.
Google Cloud : l'alliance des rivaux
L'accord signé avec Google Cloud constitue un pivot stratégique majeur. OpenAI accède désormais aux unités de traitement tensoriel (TPU) de Google, notamment les puissantes puces TPU v7 Ironwood capables de délivrer 4,6 petaflops de puissance de calcul.
Ce rapprochement surprend par sa nature paradoxale : Google et OpenAI sont pourtant concurrents directs, Google développant ses propres modèles Gemini face à ChatGPT. Thomas Kurian, PDG de Google Cloud, justifie cette approche pragmatique : "Les grandes entreprises veulent toujours choisir plusieurs clouds, cela les aide à utiliser le meilleur de chacun."
Pour Google Cloud, qui représente 12% du chiffre d'affaires d'Alphabet avec 43 milliards de dollars en 2024, attirer OpenAI constitue un coup stratégique face à AWS et Azure. L'accord permet également à Google de rentabiliser ses investissements dans les TPU, traditionnellement réservés aux projets internes comme DeepMind.
Une stratégie de diversification tous azimuts
OpenAI multiplie désormais les partenariats pour sécuriser sa croissance fulgurante. Avec un chiffre d'affaires annuel récurrent de 10 milliards de dollars atteint en juin 2025 (un doublement en seulement six mois) l'entreprise doit impérativement diversifier ses sources d'approvisionnement.
L'accord de 11,9 milliards de dollars signé avec CoreWeave en mars 2025 illustre cette approche. Ce spécialiste de l'infrastructure cloud fournit des capacités de calcul dédiées pour l'entraînement et le déploiement des modèles OpenAI.
Le projet Stargate représente l'élément central de cette quête d'indépendance. Doté d'un budget pharaonique de 500 milliards de dollars sur quatre ans, ce programme porté par SoftBank, Oracle et OpenAI vise à construire une vingtaine de centres de données géants d'ici 2029. Le premier campus est déjà en construction à Abilene, Texas.
Des puces propriétaires pour une autonomie totale
OpenAI franchit une étape supplémentaire en développant ses propres processeurs spécialisés. L'entreprise finalise actuellement la conception de sa première puce IA, créée en partenariat avec Broadcom et destinée à être fabriquée par TSMC en technologie 3 nanomètres.
Ce processeur intégrera une mémoire à large bande passante et une architecture réseau optimisée pour les calculs d'IA. L'équipe de conception, dirigée par Richard Ho, ancien ingénieur des TPU de Google, est passée de 20 à 40 personnes ces derniers mois. Les premiers prototypes sont attendus en 2025, avec une production de masse programmée pour 2026.
Cette initiative s'inspire du modèle adopté par Google avec ses TPU ou Amazon avec ses puces Graviton. L'objectif: réduire la dépendance aux processeurs Nvidia, particulièrement coûteux et difficiles à obtenir en quantités suffisantes.
Un écosystème en recomposition
L'évolution d'OpenAI catalyse une redistribution des cartes dans l'écosystème de l'IA. Google Cloud attire désormais plusieurs acteurs majeurs : Anthropic utilise les TPU v5e pour son modèle Claude depuis 2023, tandis que Safe Superintelligence, la startup fondée par Ilya Sutskever, ancien directeur scientifique d'OpenAI, s'appuie également sur l'infrastructure Google.
Cette dynamique montre comment les besoins massifs en puissance de calcul redéfinissent les alliances stratégiques, parfois au-delà des rivalités commerciales traditionnelles. Les entreprises d'IA privilégient désormais une approche "multi-cloud" pour éviter la dépendance à un fournisseur unique et optimiser leurs performances.
L'avenir se dessine en silicium
La stratégie de diversification d'OpenAI témoigne de sa maturité et de ses ambitions considérables : atteindre 125 milliards de dollars de chiffre d'affaires d'ici 2029. Cette trajectoire, soutenue par 500 millions d'utilisateurs actifs hebdomadaires et 3 millions d'entreprises clientes, nécessite une infrastructure à la hauteur de ces défis.
L'accord avec Google Cloud marque ainsi l'émergence d'un OpenAI plus autonome, capable de négocier d'égal à égal avec les géants technologiques. Dans cette nouvelle ère de l'IA, la maîtrise de l'infrastructure devient aussi stratégique que l'innovation algorithmique elle-même.
Comments ()