Die Aussage, die einem CFO am meisten zu schaffen machen sollte, ist nicht die lauteste, sondern die einfachste: Mehr als die Hälfte des Umsatzes von Nvidia stammt von fünf großen Kunden, den sogenannten Hyperscalern. Diese Information, verkündet in derselben Woche, in der das Unternehmen 68,1 Milliarden US-Dollar Umsatz im vierten Quartal des Geschäftsjahres 2025 meldete (+73 % im Vergleich zum Vorjahr), ist der Schlüssel, um den aktuellen Markt zu verstehen. Jensen Huang ist überzeugt, dass die Investoren „es missverstanden“ haben, als sie die Bedrohung durch KI für Softwareunternehmen bewerteten. Es geht nicht darum, ob KI die Software „tötet“. Es geht darum, wer die neue Software finanziert, zu welchen Bedingungen und mit welcher Resilienz.
In der Ergebnisbekanntgabe stellte Huang den Nachhaltigkeitsdiskurs mit einer brutalen Rechnung auf: Die Welt investierte jährlich 300–400 Milliarden US-Dollar in klassische Computertechnik, und mit KI wird der Rechenbedarf „1000 Mal höher“ sein, weshalb die Welt Geld investieren wird, um „diesen Token zu erzeugen“. Seine Schlussfolgerung war klar: Die 700 Milliarden US-Dollar an prognostiziertem Capex im Jahr 2026 bei den großen Akteuren wären kein Höchststand, sondern der Beginn einer Fähigkeit, „Tokens“ zu erzeugen, die weiterhin expandieren wird. Außerdem sprach er von einem Jahrzehnt des Aufbaus für diese Branche. Die Botschaft ist klar: ein Zurück zu den alten Computertechnologien gibt es nicht; die Investition ist strukturell.
Der Markt hört dieses Vertrauen, beobachtet das Volumen des Capex und fragt sich, wo die Kurve endet. Sollten die fünf größten ihre Ausgaben Jahr für Jahr verdoppeln, gelangen wir innerhalb weniger Jahre zu Billionen. Diese Mathematik schließt sich nicht mit dem gegenwärtigen freien Cashflow, und die verfügbaren Informationen zeigen, dass diese Akteure bereits über ihrem freien Cashflow ausgeben und Schulden aufnehmen, um Rechenzentren zu finanzieren. Die Diskussion ist also nicht philosophischer Natur, sondern betrifft die Marktstruktur und die Risikokonzentration.
Die Nachhaltigkeit des Capex liegt nicht im „ob“, sondern im „wer ist bereit zu zahlen“
Wenn der kombinierte Capex sich bis 2026 auf 700 Milliarden US-Dollar zubewegt, mit Plänen von Meta bis zu 135 Milliarden US-Dollar (von 72 Milliarden US-Dollar in 2025) und Google bis zu 185 Milliarden US-Dollar (von 91 Milliarden US-Dollar), dann stehen wir nicht vor einem inkrementellen Ausgabenanstieg. Es handelt sich um eine Neuausrichtung der Unternehmensprioritäten im industriellen Maßstab. Huang präsentiert es als einen „neuen Modus“ des Rechnens, der nicht zurückschreckt. Diese These hat interne Konsistenz: Wenn der wirtschaftliche Output der KI von generierten Tokens abhängt und die Tokens von der Infrastruktur, dann wird die Investition zur Voraussetzung.
Aber aus der Perspektive der Finanzleitung wird die Nachhaltigkeit durch die Verteilung der Kosten und Erträge entschieden, nicht durch technologische Unvermeidlichkeit. Mit mehr als der Hälfte der Einnahmen von Nvidia, die sich auf fünf Käufer konzentrieren, verändert jede Veränderung des Tempos, der technischen Architektur oder der Einkaufspolitik in diesem Quintett den gesamten Markt. Selbst wenn die aggregierte Nachfrage wächst, verschiebt sich die Verhandlungsstärke hin zu denen, die den Capex und die Endnachfrage kontrollieren.
Hier taucht ein häufiges Blindes Fleck auf: die „Blase“ als psychologisches Phänomen zu betrachten und nicht als Governance-Phänomen. Die Abhängigkeit von wenigen Haushalten schafft gewalttätigere Zyklen. Sie beschleunigt sich, wenn die Anreize ausgerichtet sind, und verlangsamt sich, wenn der Vorstand Rückkäufe, Dividenden oder Disziplin bei den Kapitalausgaben fordert. Tatsächlich beobachten bereits Analysten die Opportunitätskosten für die Aktionäre und stellen fest, dass dieser Capex Kapital ist, das nicht in Form von Dividenden oder Rückkäufen zurückfließt. Dieser Konflikt ist nicht zu unterschätzen: es ist der Hebel, der entscheidet, ob die Ausgaben in nachhaltige Investitionen oder in einen Höhepunkt umgewandelt werden.
Huangs These kann mit der Besorgnis des Marktes koexistieren. Die Investition mag notwendig sein und dennoch fragil konzentriert sein. In diesem Kontext ist die entscheidende Variable für 2026–2027 nicht nur, wie viele Chips verkauft werden, sondern wie viel strategische Abhängigkeit in einer Kette aufgebaut wird, in der der Endkäufer ein Oligopol ist.
Wenn KI die Software bedroht, zwingt sie sie auch, ihre Wirtschaft zu reifen
Die oberflächliche Lesart ist, dass KI den Wert traditioneller Software, insbesondere des SaaS-Modells, „komprimiert“, weil sie Aufgaben automatisiert, die zuvor Lizenzen und Plätze rechtfertigten. Huangs Lesart, laut der erwähnten Berichterstattung, ist, dass die Märkte diese Bedrohung überbewerten. Die nützlichste Art, dies geschäftlich zu verstehen, ist eine andere: KI ordnet die Kosten für die Produktion und den Betrieb von Software neu und verlagert die Macht zu denen, die das Rechnen, die Daten, die Distribution und die Iterationskapazität kontrollieren.
Das zerstört nicht automatisch Softwareunternehmen, aber es eliminiert die Bequemlichkeit der Margen durch Trägheit. KI auferlegt eine ständige Prüfung der Unit Economics. Wenn der Kunde wahrnimmt, dass eine Funktion durch ein Modell „kommodifizierbar“ geworden ist, muss das Softwareunternehmen mit einer von drei anspruchsvollen Auswegen reagieren: (1) sich auf messbare Ergebnisse im Geschäft des Kunden konzentrieren, (2) sich auf Bereiche spezialisieren, in denen Daten, Regulierung oder Integration echte Barrieren schaffen, oder (3) im Betriebskostenwettbewerb bestehen, was Größe und technische Exzellenz erfordert.
In diesem Übergang spielt Huangs Diskurs über die „Tokenisierung“ eine wichtige Rolle, weil er einen neuen gemeinsamen Nenner für den Preis des digitalen Wertes andeutet: nicht den Platz, sondern die Kosten für die Erzeugung von Rechenarbeit. Wenn der Markt diese Kennzahl akzeptiert, wird Software nicht mehr als Versprechen von Produktivität verkauft, sondern als überprüfbare Effizienz. Das könnte eine Bedrohung für diejenigen sein, die von der Paketierung von Prozessen leben, und eine Chance für diejenigen, die Auswirkungen demonstrieren können.
Die Kehrseite ist, dass viele Unternehmen zwischen zwei Giganten gefangen bleiben werden: Hyperscalern, die Infrastruktur finanzieren, und Chiplieferanten, die die Renditemarge erfassen. In der Mitte benötigt Software einen verteidigbaren Vorteil, der nicht ästhetisch ist. Dies ist der Teil, der sich nicht mit Marketing oder „Features“ löst. Es wird mit Produkt Governance, realen Nutzungsdaten und kommerzieller Disziplin gelöst.
Die neue Welle ist nicht technisch, sondern organisatorisch: Agenten und Unternehmensadoption
Huang hob hervor, dass die agentenbasierte KI in den letzten zwei bis drei Monaten einen Wendepunkt erreicht hat, und dass dies eine neue Welle der Nachfrage eröffnet. Er skizzierte sogar eine Abfolge: zuerst Agenten; dann „physische KI“ in Robotik und industrieller Ausrüstung; und ein Wachstum der Unternehmensnutzung, das, nach seiner Lesart, „Tore öffnet“. In Bezug auf Infrastruktur dient diese Erzählung dazu, zu rechtfertigen, dass der Capex nicht in einem Zyklus zum Training von Modellen erschöpft ist, sondern sich auf Inferenz und kontinuierlichen Betrieb ausdehnt.
Aus meiner sozialen Perspektive ist der Wandel für Unternehmen noch unangenehmer: Die Agenten verlagern die Arbeit an den Rand der Organisation. Produktivität hört auf, ein Projekt der IT-Abteilung zu sein und wird zu einer verteilten Fähigkeit: Betrieb, Finanzen, Vertrieb, Service, Compliance. Das erhöht den Wert horizontaler interner Netzwerke, in denen Informationen zirkulieren und das Lernen kollektiv wird. Gleichzeitig bestraft es starre Strukturen, in denen Wissen in wenigen Rollen konzentriert ist.
Hier entsteht das Risiko, Ungleichheit zu automatisieren, ohne es zu bemerken. Wenn das Design von Agenten und Flüssen nur von einem homogenen Tisch ausgeht, spiegeln die priorisierten Anwendungsfälle oft die Erfahrungen der Entscheidenden wider, nicht die Realität der Ausführenden. Das typische Ergebnis ist kein ethisches Skandal, sondern ein Skalierungsfehler: Der Agent funktioniert in der Demo, scheitert jedoch im Betrieb, weil er keine Ausnahmen, die echte Sprache der Benutzer, Reibungen im Feld oder die Anreize der Teams berücksichtigt.
Die Unternehmensadoption, die Huang als wachsend beschreibt, wird nicht mit Versprechen der „Transformation“ gewonnen. Sie wird mit Umsetzungen gewonnen, die die Organisation als lebendiges Netzwerk verstehen. Die vielfältigsten Teams im Ursprung und in der Funktion erkennen tendenziell schneller operative blinde Flecken. Nicht aus moralischer Tugend, sondern durch Abdeckung der Realität.
Die versteckten Kosten der Homogenität: strategische Fragilität in einem konzentrierten Markt
Die Konzentration der Ausgaben bei fünf Hyperscalern und die Konzentration der Rechenmacht auf wenigen Plattformen verstärken ein klassisches Problem in Vorständen: die Homogenität. Wenn der Markt von wenigen Entscheidungen zur Kapitalzuweisung abhängig ist, werden die gemeinsamen Vorurteile zu makroökonomischen Faktoren. Wenn diese Entscheidungen in Gruppen getroffen werden, die ähnlich denken, wird das gesamte System anfälliger für synchronisierte Fehler.
Hier kommt die Diskussion über die „Blase“ an ihre Grenzen. Das systemische Risiko ist nicht nur eine Überbewertung. Es ist Koordination: Viele Akteure setzen auf dieselbe Architektur, dieselben Fristen und dieselben Annahmen zur Nachfrage. An dem Tag, an dem die dominante Erzählung sich ändert — durch Druck von Aktionären, durch Kredite, durch Regulierung oder durch eine neue technische Effizienz — breitet sich der Anpassungsprozess sofort aus.
Huang sprach auch die geopolitische Front an: Nvidia meldete null Einnahmen aus China im aktuellen Quartal und erwähnte, dass es Kanäle für bestimmte Verkäufe gibt, die jedoch von den Kaufentscheidungen der Kunden abhängen. Abgesehen von diesem Detail ist die Botschaft an das Unternehmensmanagement einfach: Der adressierbare Markt kann durch öffentliche Politik eingeengt werden, ohne dass dies die Technologie invalidiert. Und wenn der Markt sich verengt, intensiviert sich der Wettbewerb um Margen.
In diesem Szenario sind die Unternehmen, die überleben, nicht die, die die richtige Erzählung wiederholen, sondern die, die Vertrauensbeziehungen und Durchführungskapazitäten außerhalb der traditionellen Machtzentren aufbauen. Robustes soziales Kapital bedeutet mehr Optionen: Talente, die bleiben, Partner, die zusammenarbeiten, Kunden, die mitgestalten, und Lieferanten, die priorisieren. In konzentrierten Märkten ist dieses Netzwerk ein finanzieller Vorteil, kein kultureller Luxus.
Operative Mandate für das C-Level: Macht diversifizieren, bevor der Markt es tut
Huangs Verteidigung der Nachhaltigkeit der Ausgaben in KI mag im technologischen Bereich richtig sein und dennoch viele Unternehmen aus nicht-technischen Gründen verwundbar lassen: Abhängigkeit von fünf Budgets, Schulden zur Finanzierung von Infrastruktur und Organisationen, die nicht darauf ausgelegt sind, schnell aus ihrer Peripherie zu lernen.
Für die Führungskräfte von Software- und KI-nutzenden Unternehmen ist der rationale Schritt zweifach. Erstens Disziplin beim Ertrag schaffen: Jede Bereitstellung muss die Kosten für das Rechnen mit Geschäftszahlen rechtfertigen, nicht mit kosmetischer Akzeptanz. Zweitens die interne Governance so umgestalten, dass operatives Wissen und funktionale Vielfalt im Produktzyklus, der Beschaffung und dem Risikomanagement realen Einfluss haben.
Bei der nächsten Vorstandssitzung sollte das C-Level seinen eigenen kleinen Tisch betrachten und erkennen, dass, wenn alle so ähnlich sind, sie zwangsläufig dieselben blinden Flecken teilen, was sie zu unmittelbar gefährdeten Opfern der Disruption macht.











