Microsoft und Nvidia streben nach Kernenergie, doch der Engpass ist nicht technischer Natur

Microsoft und Nvidia streben nach Kernenergie, doch der Engpass ist nicht technischer Natur

Zwei der am besten kapitalisierten Unternehmen der Welt setzen auf KI, um die Kernenergie zu aktivieren. Das Problem liegt jedoch nicht bei den Reaktoren, sondern in der Psychologie der Entscheider.

Andrés MolinaAndrés Molina29. März 20267 Min
Teilen

Microsoft und Nvidia streben nach Kernenergie, doch der Engpass ist nicht technischer Natur

Microsoft und Nvidia haben eine Partnerschaft offiziell bekannt gegeben, die sich darauf konzentriert, künstliche Intelligenz (KI) und digitale Zwillinge in der Kernindustrie zu nutzen. Das erklärte Ziel: die Engpässe zu reduzieren, die Projekte zur Energieerzeugung blockieren, während die Nachfrage nach Elektrizität — angetrieben von den Rechenzentren, die diese KI unterstützen — ein historisches Hoch erreicht. Die zirkuläre Logik ist nicht zu übersehen: Die KI verbraucht so viel Energie, dass sie nun ihre eigene Energieinfrastruktur aufbauen muss, um zu überleben.

Was mich an diesem Vorstoß interessiert, ist nicht die Technologie hinter den digitalen Zwillingen, noch die Rechenkapazität der eingesetzten Modelle. Vielmehr interessiert mich die implizite Diagnose, die darin enthalten ist: Ein Sektor, der zu den am stärksten regulierten, langsamsten und widerstandsfähigsten gegenüber Veränderungen zählt, benötigt den Außenantrieb zweier Technologieunternehmen, um einen Prozess zu entblockieren, der seit Jahrzehnten eingefroren ist. Das ist keine Geschichte der Innovation. Es ist ein Zeugnis institutioneller Reibung.

Warum die Kernindustrie seit Jahrzehnten nicht skaliert

Die dominante narrative Struktur über Kernenergie konzentriert sich häufig auf öffentliche Ängste: Tschernobyl, Fukushima, das kollektive Imaginäre ist über Jahrzehnte hinweg von dystopischer Fiktion geprägt worden. Doch diese Analyse, so gültig sie auf oberflächlicher Ebene sein mag, verschleiert den wahren Mechanismus der Lähmung. Das zentrale Problem ist nicht, dass der durchschnittliche Bürger Angst vor Reaktoren hat. Das Problem ist, dass auch die institutionellen Akteure, die diese Reaktoren genehmigen, finanzieren und betreiben, Angst haben und zudem sehr konkrete Anreize haben, sich nicht zu bewegen.

Aus der Perspektive des organisatorischen Verhaltens ist die Kernindustrie ein ideales Beispiel für das, was passiert, wenn institutionelle Gewohnheiten mächtiger werden als jedes technische oder ökonomische Argument. Genehmigungsprozesse können sich über Jahrzehnte hinziehen. Regulatorische Audits erzeugen Schichten von Dokumentationen, die niemand in einem angemessenen Zeitraum verarbeiten kann. Projekte häufen Kostenüberschreitungen an, nicht weil die Ingenieure inkompetent sind, sondern weil jede Änderung der Vorschriften während des Bauprozesses die Genehmigung von neuem beginnt. Das Ergebnis ist ein Sektor, der das Kunststück vollbracht hat, Masterpläne zu entwickeln, die nie in Kilowattstunden umgesetzt werden.

Wenn die Sprecher dieser Allianz von einer Branche sprechen, die „in einem Engpass bei der Lieferung gefangen“ ist, sind sie diplomatisch. Was sie beschreiben, ist ein System, in dem die Angst vor Fehlern konsequent die Kosten des Nicht-Handelns übersteigt. Und das ist aus der Perspektive der Verhaltensökonomie das schwierigste Szenario, in das einzugreifen ist, denn die Trägheit wird von allen beteiligten Akteuren perfekt rationalisiert.

Was die KI in diesem Kontext lösen kann und was nicht

Digitale Zwillinge und KI-Modelle, die auf Genehmigungen und betriebliche Effizienz angewendet werden, haben ein echtes Potenzial. Wenn ein System das Verhalten eines Reaktors unter verschiedenen Bedingungen vor seiner Konstruktion präzise simulieren kann, reduziert es die Unsicherheit, die die regulatorische Lähmung speist. Wenn es innerhalb von Tagen verarbeiten kann, was ein Ingenieursteam Monate benötigen würde, um zu überprüfen, komprimiert es die Genehmigungszyklen. Das ist das technische Argument, und es ist stichhaltig.

Doch es gibt eine Verhaltensfalle, die diese Allianz möglicherweise ignoriert: Die Reduzierung der Prozessreibung ist nicht dasselbe wie die Reduzierung der psychologischen Reibung. Regulatoren, die seit Jahrzehnten unter einem spezifischen Protokoll arbeiten, werden keine Empfehlungen eines KI-Modells annehmen, nur weil das Modell statistisch präziser ist. Sie werden benötigen, dass dieses Modell in mehreren Jurisdiktionen validiert, von unabhängigen Gutachtern geprüft und von ihren eigenen rechtlichen Rahmenbedingungen genehmigt wurde. Vor allem aber wird jemand in ihrer Befehlsstruktur den ersten Schritt machen müssen, ohne dabei seinen Job zu verlieren.

Technologie kann die Kosten der Analyse senken. Sie kann nicht die politischen Kosten senken, die damit verbunden sind, der Erste zu sein, der ihr vertraut. Und in einem Sektor, in dem sich Fehler in generationenübergreifenden Konsequenzen messen, verschwindet das Gewicht der Gewohnheit und der Angst nicht einfach, nur weil das Werkzeug effizienter ist. Die Angst vor dem Neuen institutionalisiert sich und verteidigt sich mit dem Sprachgebrauch der Vorsicht.

Das erklärt, warum große technologische Wetten in hyperregulierten Sektoren — Gesundheit, kritische Infrastrukturen, Energie — selten aus technischen Gründen fehlschlagen. Sie schlagen fehl, weil ihre Förderer 90 % des Kapitals investieren, um zu zeigen, dass die Technologie funktioniert, und 10 % darauf verwenden, zu verstehen, warum die wichtigsten Akteure es bevorzugen, wenn diese Technologie nicht funktioniert oder zumindest warten, bis jemand anderes zuerst überprüft, dass sie funktioniert.

Das wirkliche Risiko, mit einer Lösung zu kommen, bevor das Problem diagnostiziert ist

Ein Muster, das ich häufig in großen technologischen Transformationsinitiativen beobachte: Das Unternehmen, das mit der Lösung kommt, geht davon aus, dass das Problem technischer Natur ist, weil die Lösung technisch ist. Microsoft und Nvidia sind außergewöhnlich gut im Bau von Werkzeugen. Die unangenehmste Frage ist nicht, ob ihre Werkzeuge funktionieren, sondern ob die Kernindustrie so organisiert ist, dass sie diese übernehmen kann, ohne dass der Prozess der Übernahme erneut zu einem Engpass wird.

Digitale Zwillinge benötigen qualitativ hochwertige Daten. Die Kernindustrie arbeitet seit Jahrzehnten mit Aufzeichnungssystemen, die nicht für die Integration mit KI-Plattformen konzipiert wurden. Die Genehmigungen, die optimiert werden sollen, werden von Agenturen verwaltet, die ihre eigenen Budgetzyklen, ihre eigenen ererbten Werkzeuge und ihre eigenen politischen Anreize haben. Jede Schicht von Reibung, die die KI beseitigen möchte, wird von Menschen betrieben, die keinen persönlichen Vorteil haben, schneller zu agieren.

Das mindert nicht das Risiko. Es mindert es, wenn es als Softwareimplementierungsprojekt durchgeführt wird, anstatt als Projekt zur institutionellen Transformation. Der Unterschied zwischen beiden Strategien ist nicht technischer Natur: Es ist das Verständnis, dass der Endbenutzer dieser Werkzeuge nicht der Reaktor ist, sondern der Beamte, der Regulierer, der auf einen Vorschlag vertrauen muss, den er nicht vollständig versteht und der weiß, dass, wenn etwas schiefgeht, die Verantwortung bei ihm liegt und nicht beim Algorithmus.

Der Engpass, den kein Modell simulieren kann

Die Energienachfrage, die diese Allianz antreibt, ist paradoxerweise die gleiche, die es dringlicher macht, Probleme der Akzeptanz vor technischen Herausforderungen zu lösen. Die Rechenzentren, die die fortschrittlichsten Sprachmodelle der Welt antreiben, verbrauchen Elektrizität in einem Tempo, das die Energiemärkte nicht vorhergesehen haben. In diesem Kontext ist die Kernenergie eine der wenigen Quellen, die genügend Energiedichte bieten kann, ohne von klimatischen Bedingungen abhängig zu sein.

Wenn sich das historische Muster wiederholt, werden die vielversprechendsten Projekte dieser neuen Kernwelle nicht wegen fehlender Simulationstechnologie blockiert. Sie werden blockiert, weil jemand an irgendeinem Punkt in der Entscheidungsfindung den Schritt machen muss, den zuvor niemand in seiner Organisation gemacht hat, und in diesem Moment wird die Zugkraft der neuen Lösung direkt mit dem kombinierten Gewicht der institutionellen Gewohnheit und der Angst, für einen beispiellosen Fehler verantwortlich zu sein, kollidieren.

Die Führungskräfte, die Ressourcen in diese Richtung investieren, stehen vor einer strategischen Entscheidung, die selten klar formuliert wird: Sie können weiterhin investieren, um ihre Technologie glänzender, präziser, schneller und günstiger zu machen, oder sie können einen Bruchteil dieses Kapitals investieren, um die spezifischen Ängste zu verstehen und abzubauen, die verhindern werden, dass jemand sie nutzt. Die perfekte Technologie, die niemand übernimmt, löst das Elektrizitätsproblem nicht. Sie erzeugt einen weiteren, stilleren und viel teureren Engpass, der zu diagnostizieren ist.

Teilen
0 Stimmen
Stimmen Sie für diesen Artikel!

Kommentare

...

Das könnte Sie auch interessieren