Das Pentagon macht „Sicherheit“ zum Geschäftsinstrument: Warum die Vereinbarung mit OpenAI die Einnahmenverteilung im Bereich KI neu definiert
Am 28. Februar 2026 kündigte OpenAI eine Vereinbarung an, um seine KI-Modelle im geheimen Netzwerk des Pentagon einzusetzen. Parallel dazu ernannte die Trump-Administration Anthropic als „Lieferkettenrisiko für die nationale Sicherheit“, was sofortige praktische Auswirkungen hatte: Auftragnehmer, Anbieter oder Partner, die Geschäfte mit dem Verteidigungsministerium machen, dürften keine Geschäftsaktivitäten mit Anthropic aufrechterhalten. Die Maßnahme umfasst eine Anweisung zum Stopp der Nutzung ihrer Technologie durch Bundesbehörden mit einer sechsmonatigen Ausstiegsfrist, wie Fortune berichtete.
Auf den ersten Blick wirkt die Schlagzeile wie ein ethischer Konflikt über Nutzengrenzen: massive Überwachung, autonome Waffen und operative Kontrolle. In der Finanzpraxis geht es jedoch um etwas Grundlegenderes und Entscheidenderes: wer befugt ist, innerhalb des weltweit „klebrigen“ Käufers (des Staates) Rechnungen zu stellen und unter welchen vertraglichen Bedingungen sich Sicherheit in einen Wettbewerbsvorteil verwandelt.
Die Lektion für jeden CEO oder CFO liegt nicht in der philosophischen Debatte, sondern in der Mechanik: Eine Vereinbarung in einem geheimen Umfeld öffnet nicht nur Einnahmen; sie schafft auch versunkene Kosten, Lock-in-Effekte und einen Ruf als „geeignet“, der über Jahre monetarisiert wird. Eine Ernennung als Lieferkettenrisiko hemmt nicht nur den Umsatz; sie kontaminiert den Kanal und verteuert den Zugang zu Kapital.
Was tatsächlich vereinbart wurde: Sicherheitsvorkehrungen als Risiko- und Produktklauseln
Nach verfügbaren Informationen umfasst das Abkommen von OpenAI spezifische Sicherheitsvorkehrungen: Verbote für massive Überwachung, menschliche Verantwortung bei der Anwendung von Gewalt (einschließlich autonomer Waffensysteme), technische Sicherheiten, damit die Modelle sich angemessen verhalten, und den Einsatz von Ingenieuren von OpenAI mit Sicherheitsfreigaben, zusammen mit ebenfalls autorisierten Sicherheits- und Ausrichtungsforschern. Außerdem verpflichtet sich die Regierung, OpenAI nicht zu Zwangsmaßnahmen zu drängen, die das Unternehmen ablehnt.
Diese Klauseln sind kein „ethisches Appendix“. Im operativen Finanzwesen funktionieren sie wie Ingenieurverantwortung. Jede Sicherheitsvorkehrung reduziert das Risiko von sogenannten Tail-Szenarien: Klagen, Strafen, Rufschäden, Vertragskündigungen oder die Unfähigkeit, mit bestimmten sensiblen Unternehmensklienten zu arbeiten. Wenn man es in Zahlen übersetzt, zeigt der Effekt nicht wie eine direkte Einnahme, sondern eher eine Reduzierung der Volatilität zukünftiger Cashflows.
Es gibt jedoch auch eine andere Ebene. Bei öffentlichen Beschaffungen – und noch mehr bei Verteidigungseinkäufen – wirkt die Fähigkeit, in geheimen Umgebungen zu operieren, wie eine Markteintrittsbarriere. Nicht nur durch Technologie, sondern durch das gesamte Paket: autorisiertes Personal, Verfahren, Compliance, Sicherheitsrichtlinien, Nachverfolgbarkeit und die Fähigkeit, auf Prüfungen zu reagieren. Das macht „Compliance“ zu einem Teil des Produkts.
OpenAI behauptet, dass dieses Abkommen mehr Sicherheitsvorkehrungen hat als frühere geheime Einsätze, einschließlich der von Anthropic. Sie weisen auch darauf hin, dass der im Vertrag abgedeckte Cloud-Einsatz keine vollständig autonomen Waffen fördern würde, weil dies einen Edge-Einsatz erfordere. Unabhängig von der Position, die man einnimmt, ist die finanzielle Konsequenz klar: Der Vertrag wird nicht mehr nur als „Modellnutzung“ betrachtet, sondern als verwalteter Dienst mit Einschränkungen, ein Format, das historisch gesehen bessere Preise für das Risiko und die Einhaltung ermöglicht.
Ein Detail, das viele unterschätzen, ist die tatsächliche „geheime“ Kostenstruktur: Es ist nicht nur die Infrastruktur. Es ist eine feste Kostenstruktur in Form von spezialisiertem Talent, Sicherheitsverfahren, Genehmigungszeiten und der Fähigkeit, mit Reibungen zu operieren. Wenn gut bezahlt, wird es zur Autobahn luxuriöser wiederkehrender Einnahmen. Wenn es schlecht bezahlt wird, verwandelt es sich in eine Geldverbrennungsmaschine.
Anthropic aus dem Kanal: Wenn das „Lieferkettenrisiko“ die Verteilung schneidet
Die Einstufung von Anthropic als „Lieferkettenrisiko“ ist in diesem Kontext ein ungewöhnliches, und gerade deshalb macht es das stark. Es beschränkt sich nicht auf die Aussage „Die Regierung kauft nicht“. Es sagt etwas noch Schädlicheres aus: Wenn du, Auftragnehmer oder Anbieter, dem Pentagon verkaufen willst, kannst du mit diesem Unternehmen keine Geschäfte machen. Das verwandelt die Sanktion in eine Kanalblockade.
In Bezug auf die Einnahmenarchitektur ist es vergleichbar damit, den Zugang zu einem dominierenden Marktplatz zu verlieren, mit dem Unterschied, dass der Marktplatz hier auch Regeln für nachgelagerte Verkäufer diktiert. Der Hauptschaden ist nicht der direkte Vertrag, der nicht unterzeichnet wird. Es ist der Verlust der indirekten Verteilung: Integratoren, Berater, Hersteller, Cloud-Anbieter mit Rahmenverträgen und das lange etc.
Darüber hinaus zieht die Maßnahme eine leise finanzielle Belastung nach sich: Die rechtlichen und geschäftlichen Unsicherheiten werden sofort in jede Verkaufsunterhaltung eingepreist. Ein CIO eines großen Auftragnehmers braucht Anthropic nicht zu hassen, um sie zu meiden; ihm genügt es, wenn die Kosten für Compliance und das Risiko einer „vertraglichen Ansteckung“ steigen. Und wenn der Kanal verunsichert ist, kühlt der Pipeline ab.
Berichten zufolge erklärte Anthropic, dass sie keine direkte Kommunikation vom Verteidigungsministerium oder dem Weißen Haus über den Stand der Verhandlungen erhalten habe und dass sie die Einstufung in den Gerichten anfechten werde. Auch der Ursprung des Konflikts wird beschrieben: Das Verteidigungsministerium drängte Unternehmen, die Nutzung „für alle rechtlichen Zwecke“ zu akzeptieren, und Anthropic weigerte sich, da sie nach expliziten Verboten für massive Überwachung und vollständig autonome Waffen suchten.
Hier gibt es eine unbequeme finanzielle Realität: Wenn der Käufer souverän ist, ist die vertragliche Diskussion nicht symmetrisch. Ein Unternehmen kann eine technisch einwandfreie Haltung haben und dennoch durch einen exogenen Faktor verlieren: Der Käufer kauft nicht nur, sondern reguliert auch den Zugang. In einem normalen Markt bedeutet der Verlust eines Kunden den Verlust von Einnahmen; in einem Markt mit dieser Asymmetrie kann der Verlust des dominierenden Käufers den Verlust operativer Legitimität bedeuten.
Diese Legitimität zeigt sich in den Kapitalkosten. Obwohl Fortune berichtet, dass externe Experten vorschlagen, die Einstufung könnte rechtswidrig sein, ist der einfache gerichtliche Prozess teuer und langwierig. In der Zwischenzeit treten die geschäftlichen Auswirkungen in Tagen auf.
Der Vorteil von OpenAI ist nicht der Vertrag: Es ist das „Recht auf Quotierung“ und die Wechselkosten
Die richtige Sichtweise auf diesen Vorfall ist als eine Verteilung von Marktanteilen. OpenAI ergattert Zugang zu geheimen Netzwerkbereitstellungen und somit zu einer Art Nachfrage, die oft drei Merkmale aufweist: große Budgets, lange Zeiträume und enorme Reibungen beim Anbieterwechsel.
Diese Kombination erzeugt etwas sehr Spezifisches: strukturelle Wechselkosten. Um KI in geheimen Umgebungen zu betreiben, werden Integrationen, Verfahren, Schulungen, Kontrollen und organisatorische Abhängigkeiten aufgebaut. Selbst wenn das Modell theoretisch austauschbar wäre, zahlt der Käufer in der Praxis doppelt, wenn er wechselt: einmal für den neuen Anbieter und einmal, um das vorherige System abzubauen. Deshalb, wenn man einmal drin ist, ist man mit Schwung dabei.
Sam Altman verteidigte öffentlich die Vereinbarung und erklärte, dass OpenAI den Pentagon gebeten habe, ähnliche Bedingungen für alle KI-Unternehmen anzubieten. Er äußerte auch Bedenken, dass eine zukünftige rechtliche Auseinandersetzung OpenAI einer ähnlichen Einstufung wie der von Anthropic aussetzen könnte. Dieser Punkt offenbart die Realität des Spiels: Heute ist der Vorteil der Zugang; morgen ist das Risiko die Eignung.
Das ist nicht abstrakt. Wenn der Zugang zu Verkaufszahlen davon abhängt, dass man „geeignet“ für die Lieferkette ist, betritt das Unternehmen ein Regime, in dem die Geschäftskontinuität davon abhängt, diesen Status aufrechtzuerhalten. Die natürliche Konsequenz ist, mehr in Compliance, Governance und Nutzungskontrolle zu investieren, was Kosten verursacht. Die finanzielle Frage ist nicht, ob diese Kosten „moralisch sinnvoll“ sind; es ist, ob sie mit Preisen und Volumen zurückgewonnen werden.
In der Praxis verwandelt das Pentagon die Compliance in eine wettbewerbliche Währung. OpenAI, die einen Sicherheitsrahmen im Vertrag sichert, reduziert nicht nur das Risiko; sie standardisiert auch ihre Position als vertrauenswürdiger Anbieter im sensibelsten Segment. Das neigt dazu, auch in den Privatsektor zu sickern: Banken, Gesundheitswesen, Energie und jede regulierte Branche schauen darauf, welcher Anbieter die härtesten Filter bestanden hat.
Der wichtige Wandel für Führungskräfte: Vom Verkauf von Modellen zum Verkauf von sicheren Betriebsfähigkeiten
Wenn ein KI-Unternehmen „Zugang zum Modell“ verkauft, konkurriert es um Leistung und Preis pro Token. Das drückt die Margen nach unten, weil das Produkt wie eine rechnerische Rohware aussieht.
Wenn es „sichere Betriebsfähigkeiten in einem regulierten Umfeld“ verkauft, ändert sich die wirtschaftliche Einheit: Der Kunde bezahlt für die Reduzierung des operativen Risikos, Verfügbarkeit, autorisiertes Personal, Kontrollen, Nachverfolgbarkeit und vertragliche Einschränkungen. Es ist eine andere Zahlungsbereitschaft.
Diese Vereinbarung deutet darauf hin, dass sich OpenAI näher an das zweite Modell im geheimen öffentlichen Segment positioniert. Und die Einstufung gegen Anthropic zwingt zu einer noch härteren Segmentierung: Es genügt nicht, gut zu sein; man muss auch geeignet sein.
Auf der Ebene der Wettbewerbstrategie verlagert dies Investitionen von Marketing und Geschäftsexpansion hin zu drei Posten mit direktem Einfluss auf die Cashflows:
- Feste Compliance- und Sicherheitskosten: teuer, aber defensiv.
- Kosten für spezialisiertes Personal: Ingenieure und Forscher mit Freigaben, schwerer zu rekrutieren und zu halten.
- Verhandlungskosten: längere Zyklen, aber mit der Möglichkeit umfangreicher Verträge.
Das Risiko für jedes KI-Labor besteht darin, am schlechtesten Punkt zu landen: feste Kosten eines regulierten Umfelds zu übernehmen, ohne genug Preisgestaltung einzufangen, um sie zu decken. Es ist die Art von Fehler, die sich eine Zeit lang als „Wachstum“ tarnt und sich dann als chronische Abhängigkeit von externem Finanzwesen zeigt.
In der Branchenlandschaft sendet dieser Vorfall auch ein Signal an Investoren: Ein Teil des Wertes eines KI-Unternehmens liegt nicht im Modell, sondern in seiner Fähigkeit, Verträge abzuschließen, in denen der Käufer die Regeln definiert. Wenn der Weg zu den Einnahmen durch Filter der Lieferkette führt, hört die Due Diligence nicht nur auf technische Aspekte auf, sondern wird politisch-regulatorisch.
Die Kasse entscheidet: Der Gewinner wird derjenige sein, der Einschränkungen in wiederkehrende Einnahmen umwandelt
Dieser Schritt der US-Regierung macht zwei Dinge zugleich: Er beschleunigt die Einführung von KI in der Verteidigung unter einem Anbieter und verstärkt die geschäftlichen Sanktionen für diejenigen, die außerhalb des Vertrauensrahmens bleiben. OpenAI erhält einen hoch inerten Einkommensstrom; Anthropic sieht sich einem Kanalshock gegenüber, der ihren Zugang zum Bundesmarkt und zum Auftragnehmer-Ökosystem reduzieren kann.
Für Unternehmensführer ist die nützliche Lesart diszipliniert: In Märkten, in denen der Käufer auch regelt, wird die Strategie nicht an Reden gemessen, sondern an der Fähigkeit, Margen nach der Übernahme von Compliance und Risiko zu halten. Der Betrieb in geheimen Umgebungen erfordert, Reibung in Preis und langfristige Verträge umzuwandeln; andernfalls wechselt man nur von einer Abhängigkeit zur nächsten.
Das Unternehmen, das überlebt und Kontrolle behält, wird dasjenige sein, das es schafft, dass der Kunde seinen Betrieb mit wiederkehrenden und ausreichenden Einnahmen finanziert, denn das Geld des Kunden ist die einzige Validierung, die die echten Kosten deckt und verhindert, dass das Schicksal des Geschäfts von Dritten diktiert wird.










