Die Quanten-KI, die Chaos vorhersagt und die Kontrolle über wissenschaftliches Rechnen verändert

Die Quanten-KI, die Chaos vorhersagt und die Kontrolle über wissenschaftliches Rechnen verändert

Die präzise und zeitlich stabile Vorhersage von Strömungsturbulenz gehört zu den kostspieligsten Problemen der Computerphysik. Am 17. April 2026 veröffentlichten Forscher des University College London in Science Advances ein Ergebnis, das es verdient, in Ruhe gelesen zu werden: Ein KI-Modell, das mit Daten trainiert wurde, die von einem 20-Qubit-Quantencomputer vorverarbeitet wurden, erreichte eine um 20 % höhere Präzision bei der Vorhersage chaotischer Systeme und benötigte hundertfach weniger Speicher als klassische Ansätze.

Martín SolerMartín Soler18. April 20267 Min
Teilen

Die KI-Quantentechnologie, die Chaos vorhersagt und verändert, wer die wissenschaftliche Datenverarbeitung kontrolliert

Die Vorhersage von Strömungsturbulenz mit dauerhaft hoher Präzision ist eines der aufwendigsten Probleme der Rechenphysik. Die Navier-Stokes-Gleichungen widersetzen sich seit über einem Jahrhundert effizienten Lösungen, und klassische KI-Modelle versagen bei langen Zeithorizonten, weil sie Fehler systematisch ansammeln. Am 17. April 2026 veröffentlichten Forscher des University College London in Science Advances ein Ergebnis, das es verdient, aufmerksam gelesen zu werden: Ein KI-Modell, das mit Daten trainiert wurde, die von einem Quantencomputer mit 20 Qubits vorverarbeitet wurden, erzielte 20 % mehr Präzision bei der Vorhersage chaotischer Systeme und benötigte hunderte Male weniger Speicher als gleichwertige klassische Ansätze.

Das Experiment verwendete einen Quantencomputer von IQM, der mit dem Leibniz-Rechenzentrum in Deutschland verbunden war. Die Architektur ist bewusst hybrid angelegt: Der Quantencomputer greift ein einziges Mal ein, um statistisch invariante Eigenschaften des Systems zu extrahieren — Muster, die im Laufe der Zeit bestehen bleiben, auch wenn das System chaotisch ist — und anschließend erfolgt das Training auf konventioneller klassischer Infrastruktur. Es handelt sich nicht um einen vollständigen Ersatz klassischer Hardware. Es ist ein chirurgischer Eingriff genau an dem Punkt, an dem die klassische Datenverarbeitung am ineffizientesten ist.

Das ist kein nebensächliches Detail. Es ist die architektonische Entscheidung, die dieses Ergebnis über das Labor hinaus bedeutsam macht.

Warum die Speichereffizienz die Ökonomie des Problems verändert

Wenn Professor Peter Coveney, leitender Autor der Studie, Anwendungen in der Klimavorhersage, im Design von Windparks und in der Simulation von Blutfluss erwähnt, spekuliert er nicht: Er beschreibt Branchen, in denen die Rechenkosten für Strömungsdynamiksimulationen ein operativer Engpass mit bekanntem Preisschild sind. Nationale Wetterzentren geben jährlich Hunderte von Millionen Dollar für Supercomputer-Infrastruktur aus. Pharmaunternehmen verwenden einen erheblichen Teil ihres F&E-Budgets auf molekulare Simulationen, die auf Näherungslösungen angewiesen sind, weil exaktes Rechnen schlicht nicht durchführbar ist.

Eine Reduzierung des Speicherbedarfs um das Hundertfache ist keine schrittweise Verbesserung. Sie bedeutet, dass bestimmte Probleme, die heute einen erstklassigen Supercomputer erfordern, auf Infrastruktur mittlerer Klasse ausgeführt werden könnten. Das verschiebt den Zugangspunkt zur Technologie in der Wertschöpfungskette nach unten — und diese Verschiebung hat unmittelbare Verteilungsfolgen.

Die strategische Frage lautet nicht, ob die Methode funktioniert — das durch Peer-Review bestätigte Paper belegt dies —, sondern wer die erzeugte Effizienz abschöpft. Wenn IQM und Rechenzentren wie Leibniz den Zugang zu dieser Kapazität als geschlossenen Premiumdienst aufbauen, verbleibt die Kostenreduzierung beim Anbieter. Wenn der hybride Arbeitsablauf jedoch dokumentiert, standardisiert und auf zugänglicher Hardware reproduzierbar gemacht wird, verteilt sich der Nutzen auf Klimaforschungslabore, Universitäten und mittlere KMU im Energiesektor, die sich diese Simulationen heute nicht leisten können.

Auf diese Frage gibt es keine technische Antwort. Es ist eine Geschäftsmodellentscheidung, die die Geldgeber — UCL, der Engineering and Physical Sciences Research Council des Vereinigten Königreichs, IQM und Leibniz — in den nächsten 18 bis 36 Monaten treffen werden.

Das Muster, das der Quantenmarkt wiederholt, und seine Konsequenzen

Dieses Ergebnis fällt in eine Zeit, in der die Erzählung rund um das Quantencomputing unter Druck steht. Jahrelang versprach die Branche Quantenüberlegenheit als ein einmaliges, entscheidendes Ereignis. Was sich abzeichnet, ist nuancierter und aus der Perspektive des angewandten Wertes interessanter: spezifische, auf konkrete Aufgaben beschränkte Vorteile, die in bestehende klassische Infrastruktur integriert sind.

Google Quantum AI berichtete im Oktober 2025 von einer 13.000-fachen Beschleunigung gegenüber dem Supercomputer Frontier bei physikalischen Simulationen mit seinem 65-Qubit-Prozessor. Ein chinesisches Team der University of Science and Technology of China veröffentlichte im März 2026 ein System mit neun Quantenspins, das die Leistung eines klassischen Netzwerks mit 10.000 Knoten bei der Wettervorhersage repliziert. Das Ergebnis des UCL fügt sich in dieses Muster ein: nachweisbare Vorteile, nicht in abstrakten Benchmarks, sondern bei Problemen mit direktem wirtschaftlichem Wert.

Das strukturelle Risiko dieses Musters ist aus der Unternehmenssoftwarebranche bekannt. Wenn eine Fähigkeit vom experimentellen in den nachweisbaren Zustand übergeht, steht der Markt vor einer Weggabelung: Anbieter, die den Zugang kontrollieren, können Lagerente abschöpfen — oder sie bauen auf offenen Standards auf, die eine Massenadoption ermöglichen. Die erste Option maximiert den kurzfristigen Umsatz; die zweite baut einen Markt auf, der groß genug ist, damit alle Akteure des Ökosystems in absoluten Zahlen mehr verdienen.

Die Geschichte der wissenschaftlichen Hochleistungssoftware legt nahe, dass offene — oder halboffene, kommerziell unterstützte — Modelle tendenziell mehr Gesamtmarkt erfassen als geschlossene. Das hybride Quantencomputing hat keine strukturellen Gründe, eine Ausnahme zu bilden, doch es gibt auch keine Garantien, dass die wichtigsten Akteure diese Entscheidung treffen werden.

Der Wert, der sich dort ansammelt, worüber am wenigsten gesprochen wird

Die Erstautorin der Studie, Maida Wang, beschrieb das Ergebnis als Demonstration eines „praktischen Quantenvorteils". Die Unterscheidung zwischen „praktisch" und „theoretisch" entscheidet darüber, ob diese Arbeit wirtschaftlichen Wert erzeugt oder lediglich als akademischer Meilenstein bestehen bleibt. Praktisch bedeutet, dass der Arbeitsablauf auf bestehender Hardware reproduzierbar ist, dass die Betriebskosten beherrschbar sind und dass das Ergebnis auf reale Daten skaliert — nicht nur auf Laborsimulationen.

Das UCL-Team räumt ausdrücklich ein, dass die aktuellen Ergebnisse anhand von Simulationsdaten validiert wurden und dass die Erweiterung auf reale Klima- oder Turbulenzdaten noch auf der ausstehenden Arbeitsagenda steht. Diese Lücke zwischen simulierter Validierung und Feldvalidierung ist der Punkt, an dem sich das Adoptionsrisiko konzentriert. Es handelt sich nicht um ein unlösbares technisches Problem, aber es ist der Punkt, an dem viele rechnerische Fortschritte ihren Schwung verloren haben.

Was diesen Fall besonders macht, ist die Architektur der Finanzierung und Zusammenarbeit. IQM hat ein unmittelbares Interesse daran, dass Quanten-Hardware ihren angewandten Wert gegenüber institutionellen Kunden unter Beweis stellt. Leibniz hat ein Interesse daran, sich als hybrider Rechenknoten für die europäische Forschung zu positionieren. UCL verfolgt akademische Interessen sowie Interessen beim Technologietransfer. Diese drei Anreizsysteme sind in die Richtung ausgerichtet, das Ergebnis zur Feldvalidierung zu führen — was in der grundlegenden Quantenforschung keine Selbstverständlichkeit ist.

Teilen

Das könnte Sie auch interessieren