Am Freitag, dem 27. Februar 2026, gab OpenAI eine Vereinbarung bekannt, die dem US-Verteidigungsministerium — von der Trump-Administration als Department of War umbenannt — erlaubt, seine KI-Modelle in klassifizierten Netzwerken einzusetzen. Die Ankündigung erfolgte nur Stunden, nachdem Verteidigungsminister Pete Hegseth Anthropic zum Lieferkettenrisiko für die nationale Sicherheit erklärt hatte, eine Bezeichnung, die in der Praxis es militärischen Auftragnehmern verbietet, geschäftliche Aktivitäten mit diesem Unternehmen aufrechtzuerhalten (mit einer Übergangszeit von sechs Monaten). Die Reihenfolge spielt eine größere Rolle als die Überschrift: Es war nicht nur ein gewonnener Auftrag, es war eine Neugestaltung des Spielfelds.
In dieser Art von Markt wird die Nachfrage nicht aus dem Komfort eines ethischen Manifests heraus verhandelt. Sie wird in der Sprache des Käufers verhandelt: operative Kontrolle, rechtliche Absicherung und Kontinuität der Mission. Anthropic versuchte Berichten zufolge, vertragliche Verbote für zwei spezielle Verwendungen zu verankern: massenhafte Überwachung im Inland und vollständig autonome Waffen ohne menschliche Aufsicht. Das Pentagon wies diese Vertragsstruktur zurück und forderte „vollen und uneingeschränkten Zugriff für jeden rechtmäßigen Zweck“. OpenAI akzeptierte das Käufermodell, versprach jedoch etwas anderes: technische Schutzmaßnahmen und einen „Safety Stack“, bei dem die Regierung das Modell nicht zwingen würde, Aufgaben auszuführen, wenn es diese ablehnt.
Aus der Perspektive der Produktstrategie ist die Wendung klar: Ethik hat aufgehört, ein juristischer Absatz zu sein, und wurde zu einer Implementierungsspezifikation. Und dieser Unterschied definiert, wer Zugang zum klassifizierten Netzwerk erhält.
Das eigentliche Signal der Vereinbarung ist nicht der Vertrag, sondern der Einkaufsstandard
Sam Altman kommunizierte, dass die Vereinbarung die Nutzung der Modelle für „jeden rechtmäßigen Zweck“ erlaubt, wobei Schutzmaßnahmen gegen massenhafte Überwachung von US-Bürgern und die Sicherstellung menschlicher Verantwortung über den Einsatz von letaler Gewalt, auch in autonomen Waffensystemen, eingebaut wurden. Der entscheidende Punkt ist nicht, dass es Grenzen gibt, sondern wo diese Grenzen verankert sind.
Anthropic versuchte, die Grenzen im Vertrag zu verankern. OpenAI verankert sie in drei Schichten: (1) bestehende Gesetze, die bestimmte Verwendungen bereits verbieten, (2) militärische Richtlinien, die menschliches Urteil bei letaler Gewalt verlangen, und (3) technische Kontrollen innerhalb des Einsatzes. Für einen Käufer wie das Department of War reduziert diese Architektur die Reibung: Sie hält die Sprache von „rechtlichem Gebrauch“ aufrecht, die sie wünschen, und verlagert die Einhaltung auf eine Kombination aus interner Governance und Technologie.
Dies ist keine philosophische Diskussion; es ist Beschaffungswesen. Ein Vertrag mit expliziten Verboten gibt dem Anbieter ein formelles Blockierungsmechanismus. Ein „Stack“ von Sicherheitsmaßnahmen hingegen wird als technische Fähigkeit und gemeinsame Operation präsentiert, ohne vertragliches „Veto“. In den Briefings wird erwähnt, dass das Pentagon Anthropic beschuldigte, ein „Veto-Recht“ über operative Entscheidungen anstreben zu wollen. Dieser Satz ist eine Botschaft für die gesamte Branche: Der Käufer kauft nicht nur Modelle, sondern auch operative Unterordnung.
Die Konsequenz ist, dass der „Standard“ nicht mehr darin besteht, wer das beste allgemeine Modell hat, sondern wer es zu akzeptablen Bedingungen für eine klassifizierte Umgebung verpacken kann, ohne jede Ausnahme in eine rechtliche Krise zu verwandeln. Praktisch gesehen bietet OpenAI eine leichter verdauliche Governance-Schnittstelle für den Kunden an.
Die Blockade gegenüber Anthropic ist ein Lieferketten-Spiel, keine Werte-Diskussion
Die Bezeichnung „Lieferkettenrisiko“ gegen Anthropic wird als beispielloser Schritt beschrieben. Und genau deswegen lohnt es sich, sie als das zu lesen, was sie ist: ein Machtinstrument, um einen Markt zu disziplinieren, der schwierig zu erwerben war.
In einer Umgebung, in der grundlegende Modelle zur Infrastruktur werden, behandelt der Staat Anbieter wie er Halbleiter, Telekommunikation oder Cybersecurity behandelt: Kontinuität, Kontrolle, Auditierbarkeit, Ersetzbarkeit. Einen Anbieter als Risiko zu kennzeichnen, reorganisiert die Anreize auf einen Schlag, da es Auftragnehmer und Partner zwingt, sich für eine Seite zu entscheiden, auch wenn eine Übergangszeit besteht.
Die unmittelbare wirtschaftliche Wirkung ist erheblich, auch wenn wir keine öffentlichen Zahlen über den Vertrag von OpenAI haben. Wir haben jedoch die Größenordnung des Schocks: Die Briefings erwähnen Verhandlungen von Anthropic über bis zu 200 Millionen Dollar. Selbst wenn diese Zahl nicht den größten Teil des Geschäfts von Anthropic darstellt, ist der wirkliche Schlag nicht der Verlust eines spezifischen Vertrags. Es ist, aus dem Ecosystem von Anbietern ausgeschlossen zu sein, die darauf abzielen, den Militärkunden zu bedienen, wo die geschäftliche Kompatibilität binär ist.
Für OpenAI liegt der Vorteil nicht nur darin, „zu gewinnen“. Es ist, sich zum Anbieter zu entwickeln, dessen Präsenz in klassifizierten Netzwerken ein Muster für den Einsatz normalisiert. Sobald der Kunde in Integration, ingenieure vor Ort und Sicherheitsflüsse investiert, steigen die Kosten für einen Anbieterwechsel. Das Briefing besagt, dass OpenAI Ingenieure im Pentagon einsetzen wird und eine Architektur von Schutzmaßnahmen aktivieren wird. Das klingt weniger nach „API-Verkauf“ und mehr nach integrativem kritischen Service.
Die Botschaft für jedes Startup, das es anstrebt, für den Staat zu verkaufen, ist unangenehm: Das Risiko ist nicht mehr nur technischer oder konformer Natur; es ist von „politischer Akzeptabilität“ als Anbieter geprägt. Diese Akzeptabilität kann innerhalb von 24 Stunden definiert werden.
OpenAI führte ein risikoreiches Experiment durch: Sicherheit in eine umsetzbare Eigenschaft umwandeln
Wo die meisten Analysen sich fragen, ob OpenAI „nachgegeben“ hat oder ob Anthropic „hart geblieben ist“, sehe ich etwas anderes: OpenAI verwandelte eine Diskussion über Einschränkungen in ein Lieferpaket. Das ist Produkt.
Altman sagte, dass sie technische Schutzmaßnahmen entwickeln werden, die der Regierung einen „Safety Stack“ ermöglichen und dass die Modelle, die sich weigern, Aufgaben auszuführen, nicht gezwungen werden, dies zu tun. Wenn dies wie beschrieben umgesetzt wird, bedeutet dies, dass OpenAI nicht nur ein Modell verkauft; sie verkaufen eine Betriebsweise des Modells unter institutionellem Druck.
Das ist genau das, was ein Verteidigungskäufer braucht, um den Kauf intern zu rechtfertigen: „Wir kaufen keine Black Box; wir kaufen ein System mit Bremsen“. Und das ohne sich an Klauseln zu binden, die als Einschränkungen der Kommandobefugnis interpretiert werden könnten.
Der pragmatischste Teil ist, dass OpenAI scheint zu akzeptieren, dass das regulatorische und politische Umfeld bereits vorhanden ist, um beträchtliche Bedenken abzudecken, und dass der Rest mit Ingenieurskunst und Prozessen gemildert werden kann. Anthropic versuchte, das Risiko vertraglich zu schließen; OpenAI versucht, es zu instrumentalisieren.
Jetzt hat dieser Ansatz seinen Preis. Wenn du sagst „jeden rechtmäßigen Zweck“, vergrößerst du den Raum für potenzielle Verwendungen und damit auch den Raum für Vorfälle. Das Versprechen technischer Schutzmaßnahmen wird messbar und damit auch auditierbar für den Kunden. In klassifizierten Netzwerken werden Fehler nicht in einem öffentlichen Post diskutiert: Sie werden mit Vertrauensverlust und stiller Ausweisung bezahlt.
Interessant ist, dass OpenAI sogar darum bat, dass das Department of War diesen "denselben Bedingungen" auch allen KI-Unternehmen anbieten sollte. Dieser Satz dient als Wettbewerbsschutz: Wenn der Standard universalisiert wird, verringert OpenAI das Risiko, als begünstigte Ausnahme dazustehen und wandelt seinen Ansatz in einen Marktstandard um.
Der Verteidigungsmarkt definiert die Geschäftssprache für fortschrittliche KI
Dieses Kapitel findet nicht im Vakuum statt. Das Briefing erwähnt, dass Google und xAI bereits Verträge für „rechtmäßige“ Anwendungen haben und dass xAI noch in derselben Woche die Genehmigung für klassifizierte Umgebungen erhielt. Das heißt, der Käufer baut ein Portfolio von Anbietern auf, aber das Ereignis mit Anthropic zeigt, dass dieses Portfolio Bedingungen für die Weiterverwendung hat.
Wenn ein Kunde Kaufkraft und Ausschlussfähigkeit hat, wird die „Vertragssprache“ von oben standardisiert. Hier lautet die Sprache „rechtmäßige Verwendung“. Und um diese Sprache wird ein Markt für Komponenten aufgebaut: Integration, Kontrollen, Audit, Einsatz in geschlossenen Netzwerken, eingebettetes Personal, Management von Modellablehnungen, Nachverfolgbarkeit von Prompts, Protokollierung menschlicher Entscheidungen.
Startups, die dies als Reputationsdebatte festhalten, kommen zu spät. Was hier entsteht, ist eine Produktkategorie: KI für klassifizierte Umgebungen mit operationellen Garantien. Es ist nicht dasselbe wie der Verkauf von Enterprise SaaS, weil der Käufer nicht Komfort kauft; er kauft Kontrolle, Kontinuität und Verantwortung.
Anthropic sagte, dass sie die Bezeichnung gerichtlich anfechten werden und dass sie keine direkte Mitteilung erhalten hätten. Wenn dieser Streit sich verlängert, ist die Marktwirkung bereits gegeben: Partner und Auftragnehmer passen ihre Expositionen heute an, nicht wenn es ein Urteil gibt. Die Übergangszeit von sechs Monaten reicht aus, damit die Beschaffungsteams Roadmaps umschreiben und Abhängigkeiten ersetzen.
Hier zeigt sich ein Muster, das viele Technologieunternehmen unterschätzen: In regulierten oder souveränen Sektoren umfasst das „Produkt“ die Beziehung zum Staat als politischen Akteur. Und die Politik respektiert keine Produktzyklen.
Die executive Lehre: Grenzen, die nicht instrumentiert werden, werden irrelevant
OpenAI hat gewonnen, weil sie einen Konflikt von Einschränkungen in eine Lieferungslösung übersetzt haben, die der Kunde innerhalb seiner Regeln betreiben kann. Anthropic hat an Traktion verloren, weil sie versucht haben, denselben Konflikt mit einer Vertragsstruktur zu lösen, die der Käufer als Verlust von Kontrolle interpretierte. Der Unterschied liegt nicht darin, wer bessere Absichten hat, sondern darin, wer ein System entworfen hat, das zur Realität des härtesten Kunden passt.
Für Geschäftsleiter hinterlässt dieser Fall anwendbare Richtlinien außerhalb der Verteidigung: Wenn der Kunde Breite und Geschwindigkeit verlangt, ist die einzige Möglichkeit, Grenzen ohne den Verkaufsprozess zu brechen, sie in überprüfbare Mechanismen innerhalb des Produkts und Betriebs umzuformen. Werte, die nicht umsetzbar sind, enden als Corporate Decoration, und perfekt geplante Strategien sterben am ersten Tag, an dem sie auf einen echten Käufer treffen.
Echter geschäftlicher Wachstum passiert nur, wenn die Illusion des perfekten Plans aufgegeben und ständige Validierung mit dem realen Kunden angenommen wird.











