Microsoft et Nvidia misent sur l'énergie nucléaire, mais le vrai problème n'est pas technique

Microsoft et Nvidia misent sur l'énergie nucléaire, mais le vrai problème n'est pas technique

Deux des entreprises les plus capitalisées au monde se lancent dans l'intelligence artificielle pour débloquer l'énergie nucléaire, mais c'est la psychologie qui freine les projets.

Andrés MolinaAndrés Molina29 mars 20267 min
Partager

Microsoft et Nvidia misent sur l'énergie nucléaire, mais le vrai problème n'est pas technique

Microsoft et Nvidia viennent de formaliser une alliance visant à appliquer l'intelligence artificielle et les jumeaux numériques à l'industrie nucléaire. L'objectif déclaré : réduire les goulets d'étranglement qui paralysent les projets de génération d'énergie à un moment où la demande d'électricité—principalement alimentée par les centres de données pour cette même intelligence artificielle—atteint des niveaux historiques sans précédent. La logique circulaire n'échappe à personne : l'IA consomme tant d'énergie qu'elle doit désormais construire sa propre infrastructure énergétique pour survivre.

Ce qui m'intéresse dans ce mouvement, ce n'est pas la technologie derrière les jumeaux numériques ou la capacité de calcul des modèles déployés. Ce qui m'intéresse, c'est le diagnostic implicite qu'il contient : l'un des secteurs les plus réglementés, les plus lents et les plus réticents au changement de la planète nécessite que deux entreprises technologiques viennent de l'extérieur pour débloquer un processus congelé depuis des décennies. Ce n'est pas une histoire d'innovation. C'est une radiographie de la friction institutionnelle.

Pourquoi l'industrie nucléaire n'a pas atteint l'échelle depuis des décennies

Le récit dominant sur l'énergie nucléaire se concentre souvent sur la peur du public : Tchernobyl, Fukushima, l'imaginaire collectif contaminé par des décennies de fictions dystopiques. Mais cette analyse, bien que valable en surface, obscurcit le véritable mécanisme de paralysie. Le problème central n'est pas que le citoyen moyen ait peur des réacteurs. Le problème est que les acteurs institutionnels qui doivent approuver, financer et opérer ces réacteurs éprouvent également de la peur, et ont en plus des incitations très concrètes à ne pas agir.

Du point de vue du comportement organisationnel, l'industrie nucléaire est un cas d'école sur ce qui se passe lorsque l'habitude institutionnelle devient plus puissante que n'importe quel argument technique ou économique. Les processus d'autorisation peuvent s'étendre sur des décennies. Les audits réglementaires engendrent des couches de documentation que personne n'a les capacités de traiter dans un délai raisonnable. Les projets accumulent des surcoûts non pas parce que les ingénieurs sont incompétents, mais parce que chaque changement de réglementation en cours de projet redémarre le chronomètre d'approbation à zéro. Le résultat est un secteur qui a perfectionné l'art de produire des plans directeurs qui ne se transforment jamais en kilowatts.

Lorsque les porte-parole de cette alliance décrivent l'industrie comme "coincée dans un goulet d'étranglement de livraison", ils sont diplomates. Ce qu'ils décrivent, c'est un système où la peur de l'erreur l'emporte constamment sur le coût de l'inaction. Et cela, du point de vue de l'économie comportementale, représente le scénario le plus difficile pour intervenir, car l'inertie est parfaitement rationalisée par tous les acteurs en jeu.

Ce que l'IA peut et ne peut pas résoudre dans ce contexte

Les jumeaux numériques et les modèles d'intelligence artificielle appliqués à l'autorisation et à l'efficacité opérationnelle ont un potentiel véritable. Si un système peut simuler avec précision le comportement d'un réacteur dans diverses conditions avant sa construction, il réduit l'incertitude qui alimente la paralysie réglementaire. S'il peut traiter en jours ce qu'une équipe d'ingénieurs mettrait des mois à examiner, cela compresse les cycles d'approbation. C'est l'argument technique, et il est solide.

Mais il existe un piège comportemental que cette alliance risque d'ignorer : réduire la friction des processus n'est pas la même chose que réduire la friction psychologique. Les régulateurs qui opèrent depuis des décennies sous un protocole spécifique ne vont pas adopter les recommandations d'un modèle d'IA simplement parce que le modèle est statistiquement plus précis. Ils auront besoin que ce modèle soit validé dans plusieurs juridictions, audité par des pairs indépendants, approuvé par leurs propres cadres juridiques et, surtout, qu'une personne de leur chaîne de commandement ait donné le premier pas sans perdre son poste dans le processus.

La technologie peut compresser le coût de l'analyse, mais elle ne peut pas réduire le coût politique d'être le premier à lui faire confiance. Et dans un secteur où une erreur se mesure en conséquences générationnelles, le poids de l'habitude et de la peur ne disparaît pas simplement parce que l'outil est plus efficace. L'anxiété face à la nouveauté, lorsqu'elle est institutionnalisée, se défend elle-même avec le langage de la prudence.

Cela explique pourquoi les grands paris technologiques dans des secteurs hyper réglementés — santé, infrastructures critiques, énergie — échouent rarement pour des raisons techniques. Ils échouent parce que leurs promoteurs investissent 90 % du capital pour démontrer que la technologie fonctionne et 10 % pour comprendre pourquoi les acteurs clés préfèrent qu'elle ne fonctionne pas, ou préfèrent attendre que quelqu'un d'autre prouve d'abord qu'elle fonctionne.

Le vrai risque d'arriver avec une solution avant de diagnostiquer le problème

Il existe un modèle que j'observe fréquemment dans les grandes initiatives de transformation technologique : l'entreprise qui arrive avec la solution suppose que le problème est technique parce que la solution est technique. Microsoft et Nvidia sont extraordinairement douées pour construire des outils. La question la plus inconfortable n'est pas de savoir si leurs outils fonctionnent, mais si l'industrie nucléaire est organisée de manière à permettre leur adoption sans que le processus d'adoption ne devienne un autre goulet d'étranglement.

Les jumeaux numériques nécessitent des données de haute qualité. L'industrie nucléaire fonctionne depuis des décennies avec des systèmes d'enregistrement qui n'étaient pas conçus pour s'intégrer aux plateformes d'intelligence artificielle. L'autorisation qu'on souhaite optimiser est administrée par des agences qui ont leurs propres cycles budgétaires, leurs propres outils hérités et leurs propres incitations politiques. Chaque couche de friction que l'IA vise à éliminer est gérée par des personnes qui ne tirent aucun bénéfice personnel direct à avancer plus rapidement.

Cela n'invalide pas le pari. Cela l'invalide s'il est exécuté comme un projet de mise en œuvre de logiciel plutôt que comme un projet de transformation institutionnelle. La différence entre ces deux stratégies n'est pas technique : c'est la compréhension que l'utilisateur final de ces outils n'est ni le réacteur, ni le régulateur, ni l'opérateur qui doit faire confiance à une recommandation qu'il ne comprend pas complètement, et qui sait que, si quelque chose tourne mal, ce sera de sa faute et non de celle de l'algorithme.

Le goulet d'étranglement que aucun modèle ne peut simuler

La demande d'énergie poussant cette alliance est, paradoxalement, la même qui rend plus urgent de résoudre les problèmes d'adoption avant les problèmes techniques. Les centres de données alimentant les modèles de langage les plus avancés de la planète consomment l'électricité à une vitesse que les marchés énergétiques n'avaient pas anticipée. L'énergie nucléaire est, dans ce contexte, l'une des rares sources capables d'offrir une densité énergétique suffisante sans dépendre des conditions climatiques.

Mais si le schéma historique se reproduit, les projets les plus prometteurs de cette nouvelle vague nucléaire ne seront pas bloqués par un manque de technologie de simulation. Ils vont être bloqués parce que quelqu'un, à un moment donné de la chaîne de décision, devra faire un pas que personne de son organisation n'a fait auparavant, et à ce moment-là le magnétisme de la nouvelle solution sera en conflit direct avec le poids combiné de l'habitude institutionnelle et de la peur d'être responsable d'une erreur sans précédent.

Les dirigeants qui investissent des ressources dans cette direction ont devant eux une décision stratégique rarement formulée clairement : ils peuvent continuer à investir pour rendre leur technologie plus brillante, plus précise, plus rapide et moins chère, ou ils peuvent investir une fraction de ce capital pour comprendre et désamorcer les peurs spécifiques qui empêcheront quelqu'un de l'utiliser. La technologie parfaite que personne n'adopte ne résout pas le problème de l'électricité. Elle génère un autre goulet d'étranglement, plus silencieux et beaucoup plus difficile à diagnostiquer.

Partager
0 votes
Votez pour cet article !

Commentaires

...

Vous pourriez aussi aimer