La course à l'IA : maintenant, on se bat avec de l'électricité et du béton

La course à l'IA : maintenant, on se bat avec de l'électricité et du béton

Le coût prévu de 660 à 690 milliards de dollars d'ici 2026 redéfinit la dynamique des entreprises de cloud, axée sur l'énergie et l'infrastructure physique.

Clara MontesClara Montes1 mars 20266 min
Partager

La course à l'IA : maintenant, on se bat avec de l'électricité et du béton

Depuis des années, la narrative autour de l'IA se résumait à une guerre de modèles : qui entraînait le mieux, qui lançait le premier, qui avait le talent. Or, cette époque est révolue. Les chiffres qui émergent pour 2026 redessinent la carte concurrentielle avec la brutalité typique des industries lourdes : Meta, Microsoft, Alphabet, Amazon et Oracle se préparent à investir entre 660 et 690 milliards de dollars en capex pour l’infrastructure IA, presque le double de 2025, selon TechCrunch. Parallèlement, Jensen Huang projette un chiffre encore plus élevé : 3 à 4 billions de dollars d'investissement total en infrastructure IA d'ici la fin de la décennie.

Ce qui inquiète de nombreux équipes dirigeantes, c'est que ce saut n'est pas dû à une "mise en avant de l'avenir" éthérée. Il est propulsé par des frictions actuelles : capacité des centres de données, disponibilité des GPU et surtout, énergie. Microsoft, par exemple, détient un chiffre qui fonctionne comme baromètre du marché : 80 milliards de dollars de commandes en attente sur Azure en raison de restrictions de puissance. Le véritable obstacle n'est plus sur la feuille de route du produit, mais sur le réseau électrique et la capacité de construction.

Le nouveau bilan de l'IA : capex massif et demande non satisfaite

Le premier changement structurel est à la fois comptable et stratégique. Ce qui est financé n’est pas seulement de la « computation », mais de la capacité industrielle : terrains, sous-stations, contrats énergétiques, refroidissement, et centres de données conçus pour des charges de travail en IA. TechCrunch décrit comment les acteurs majeurs se déplacent avec des chiffres qui étaient auparavant associés à des cycles d'infrastructure publique.

Les prévisions d'investissement pour 2026 illustrent l'ampleur de ce virage : Amazon prévoit 200 milliards de dollars (contre 131 milliards en 2025), Alphabet entre 175 et 185 milliards (contre 91 milliards), Meta entre 115 et 135 milliards (contre 71 milliards), Microsoft visant 120 milliards ou plus, et Oracle à 50 milliards, un bond de 136% par rapport à 2025. Ensemble, ces chiffres forment la fourchette agrégée de 660 à 690 milliards.

Derrière ce total, un message opérationnel se dessine : les hyperscalers admettent que, pour un certain temps, l’IA doit être gérée comme une industrie où le gagnant est celui qui réussit à convertir liquidités en capacité physique utilisable avant les autres. Dans ce contexte, le « temps de mise sur le marché » se mesure en mégawatts activés, non en sprints.

Ce tournant a des implications financières inévitables. Le capex devient un levier de positionnement, mais aussi une source de pression : si la monétisation de l'IA ne suit pas, l'actif stagne, se déprécie et rivalise pour l'énergie avec d'autres usages. Pour l'instant, le marché semble valider la thèse de la rareté : la signalisation de Microsoft concernant les arriérés en puissance est une preuve que la demande dépasse l'offre disponible.

Les centres de données comme produit : le client achète de la certitude, pas des « modèles »

Je souhaite aborder cette course sous l'angle du comportement du consommateur, car le "client" de cette infrastructure n'est pas seulement l'utilisateur final d'un chatbot. Le client pertinent est celui qui paie : des entreprises qui doivent intégrer l'IA dans leurs opérations, leur attention client, leur programmation, leur marketing et leur analyse; et qui aujourd'hui "achètent" un résultat très spécifique : certitude de calcul.

En 2024 ou 2025, de nombreuses conversations commerciales sur l'IA se résolvaient par des démonstrations et des promesses de productivité. En 2026, l'accent est déplacé vers quelque chose de plus prosaïque : disponibilité garantie. Lorsqu'un fournisseur accumule des commandes qu'il ne peut pas traiter (l'arriéré d'Azure), le client corporate apprend une leçon pragmatique : le risque n’est plus seulement de savoir « si le modèle fonctionne », mais si j’ai la capacité de l’exécuter quand j’en ai besoin.

Cela donne lieu à une innovation moins glamour mais plus déterminante : transformer l'infrastructure en proposition de valeur explicite. Des projets comme Hyperion de Meta - un site de 2 250 acres en Louisiane, coûtant environ 10 milliards de dollars et extensible à 5GW, avec des plans liés à une centrale nucléaire selon les rapports - ne sont pas un caprice d'ingénierie. Ce sont une tentative de conditionner la chose la plus rare comme "produit" : énergie plus informatique.

Et le cas Stargate pousse cette logique à l'extrême. La co-entreprise entre OpenAI, SoftBank, Oracle et MGX, annoncée avec le soutien de l'administration Trump, vise 500 milliards de dollars d'ici 2029, avec un déploiement initial de 100 milliards et une planification de 7GW sur cinq sites au Texas, au Nouveau-Mexique et dans l'Ohio (en septembre 2025), en plus de plus de 400 milliards engagés dans les trois premières années. Cela ne ressemble plus à une simple expansion de la cloud ; cela semble se rapprocher de la construction d'une nouvelle couche industrielle.

Du point de vue du consommateur corporate, le schéma est clair : on paie pour une continuité opérationnelle. Lorsque l'IA devient un élément des processus critiques, l'interruption due à un manque de capacité ne peut plus être tolérée. La demande se déplace de « logiciels intelligents » vers « services industriels fiables ».

La lutte pour la chaîne d'approvisionnement : Nvidia, accords de GPU et alliances qui créent de la dépendance

L'autre dimension du pouvoir n'est pas le centre de données en lui-même, mais la chaîne d'approvisionnement qui le rend utile. TechCrunch compile des accords qui, par leur ampleur, semblent plus proches de contrats de matières premières que d'alliances technologiques.

OpenAI, par exemple, est liée à un accord de 100 milliards de dollars en GPU avec Nvidia, en plus d'un schéma de GPU par actions avec AMD. Nvidia, à son tour, aurait mis en place une structure similaire avec xAI. Parallèlement, il est à noter que Microsoft a investi pratiquement 14 milliards de dollars dans OpenAI depuis 2019, débutant avec un accord de 1 milliard qui incluait l'exclusivité sur Azure (plus tard assouplie vers une approche multi-cloud avec “droit de première refusion”). Amazon a investi 8 milliards de dollars dans Anthropic, ajustant le matériel selon ses besoins.

Financièrement, cela peut être perçu comme une tentative de réduire la volatilité sur trois fronts :
1) Assurer l'approvisionnement : celui qui ne fixe pas les GPU est à la merci des files d'attente et des prix.
2) Assurer la demande : celui qui finance ou s'intègre à un laboratoire pertinent, garantit des charges de travail qui remplissent le capex.
3) Transformer l'infrastructure en fidélisation : non pas nécessairement via des clauses d'exclusivité, mais par des coûts de changement opérationnels.

Le point déterminant est que le pouvoir de négociation est en mutation. En période de rareté, le fournisseur de ressources (GPU, énergie, capacité de construction) capte plus de valeur. Le cloud est en concurrence, mais dépend aussi. D'où l'importance du commentaire de Huang sur les goulets d'étranglement énergétiques : le véritable limitant n'est pas l'algorithme, mais l'accès à l'énergie électrique.

Ce réajustement explique aussi la montée atypique d'Oracle dans cette dynamique : son objectif de 50 milliards de dollars de capex et ses 523 milliards d'obligations de performance restantes suggèrent un repositionnement pour capter la demande d'infrastructure à grande échelle, renforcée par son rôle dans Stargate.

Le risque silencieux : infrastructure surdimensionnée et expérience utilisateur dégradée

Lorsque une industrie adopte le mode « construire d'abord, rentabiliser ensuite », le risque n’est pas nécessairement un échec technologique. Souvent, c'est la déconnexion avec les besoins réels des clients.

Il existe ici une tension qui me semble centrale : les dépenses agrégées de 660 à 690 milliards coexistent avec un fait énoncé dans le briefing : les entreprises d'IA pures affichent une croissance rapide des revenus, mais ne représentent qu'une fraction de la dépense totale en infrastructure. Ce déséquilibre n'implique pas que l'investissement soit irrationnel ; il signifie que le modèle de capture de valeur est encore en phase de consolidation.

En chemin, deux dangers opérationnels apparaissent :

  • Surconstruction de capacité "premium" : si l'infrastructure est conçue pour les cas les plus extrêmes (entraînement massif, latences minimales, redondances maximales), le coût unitaire peut en entraîner une hausse des prix. Cela ouvre la porte à des alternatives plus simples et moins coûteuses dans des segments qui ont uniquement besoin d'une inférence basique ou de flux limités.

  • Dégradation du service par congestion : l'arriéré d'Azure en puissance est la version corporate d'une mauvaise expérience utilisateur. Dans le monde des entreprises, la frustration ne se traduit pas par des revues ; elle se manifeste par des migrations partielles, des architectures hybrides et des achats redondants pour réduire la dépendance.
  • Le signal du marché est que les grandes entreprises parient sur le fait que “l'IA consommera toute la capacité disponible”, comme le résume l'analyse citée par le Futurum Group sur le saut de ~380 milliards en 2025 à 660-690 milliards en 2026. Si cette hypothèse se réalise, le capex se justifie. Si elle se réalise partiellement, le gagnant sera celui qui aura construit avec le plus de flexibilité contractuelle et énergétique.

    C'est pourquoi la discussion publique à venir — une rencontre à la Maison Blanche prévue en mars 2026 avec Amazon, Google, Meta, Microsoft, xAI, Oracle et OpenAI, selon le briefing — revêt une dimension économique : le déblocage de l'énergie, des permis et de la construction détermine la part de marché future autant que le meilleur modèle.

    La direction stratégique est désormais tracée : l'IA sera vendue comme une capacité garantie

    L'histoire de 2026 montre que le « produit » décisif a changé. L'IA continuera à rivaliser en qualité des modèles, oui, mais le pouvoir économique est en train de se concentrer entre les mains de ceux qui contrôlent le goulet d'étranglement physique : centres de données, GPU et électricité.

    Pour un CEO ou un CFO, l'implication pratique est que la conversation sur l'IA cesse d'être uniquement une discussion sur les logiciels et devient une discussion sur les structures de coûts, la dépendance aux fournisseurs et le risque opérationnel. À court terme, l'échelle favorise ceux qui peuvent absorber un capex massif. À moyen terme, l'espace concurrentiel s'ouvrira pour des propositions qui livrent une IA suffisante à un coût moindre et avec moins d'exigences d'infrastructure, en particulier là où le client ne recherche pas le maximum de performances.

    Le schéma de comportement du consommateur corporate que cette course révèle est clair : les entreprises n’achètent pas « l'IA » comme concept ; elles achètent continuité et certitude pour transformer les processus sans que l'infrastructure leur fasse défaut au moment critique.

    Partager
    0 votes
    Votez pour cet article !

    Commentaires

    ...

    Vous pourriez aussi aimer