Ich schreibe dies mit einer festen Überzeugung: In der Verteidigung konkurriert KI nicht nur um die Qualität des Modells. Sie konkurriert darum, in eine Befehlskette, in öffentliche Aufträge und in ein rechtliches Verantwortungsregime zu passen, bei dem der Kunde seine Handlungsfreiheit nicht verhandelt.
Am 27. Februar 2026 erließ das US-Verteidigungsministerium ein Memo, das seine Kommandanten anleitete, die Claude-Modelle von Anthropic innerhalb von 180 Tagen aus "Schlüsselsystemen" zu entfernen, nachdem ein Vertrag über 200 Millionen Dollar zur Bereitstellung von KI in geheimen militärischen Netzwerken annulliert wurde, meldete CBS News. Die Quelle beschreibt die Abfolge direkt: Am 24. Februar stellte Verteidigungsminister Pete Hegseth dem CEO von Anthropic, Dario Amodei, ein Ultimatum, um Schutzmaßnahmen zu entfernen, die den Einsatz für großflächige häusliche Überwachung und vollautonome Waffen verbieten. Amodei weigerte sich. Noch am selben Tag veröffentlichte Präsident Donald Trump auf Truth Social eine Anweisung, dass alle Bundesbehörden die Nutzung der Technologie von Anthropic „unverzüglich“ einstellen sollten, wobei das Pentagon eine temporäre Ausnahme von sechs Monaten für die Entfernung erhielt.
Die Eskalation setzte sich am 4. März 2026 fort, als das Pentagon Anthropic offiziell als "Risiko in der Lieferkette für die nationale Sicherheit" einstufte, was sofort wirksam wurde und die Nutzung in Verträgen des DoD einschränkte. Anthropic reagierte mit einer Klage gegen die Trump-Administration und behauptete Verstöße gegen das Administrative Procedure Act, Vergeltung unter dem Ersten Verfassungszusatz und mangelnden rechtlichen Gehör unter dem Fünften. In einer Erklärung, die von CBS zitiert wurde, warnte CFO Krishna Rao vor potenziellen Einnahmeverlusten im Jahr 2026 von „mehreren Milliarden Dollar“, einschließlich 150 Millionen Dollar wiederkehrender jährlicher Einnahmen, die mit Aufträgen des Pentagon verbunden sind, sowie eines zusätzlichen Einflusses durch die Abhängigkeit von Verteidigungsauftragnehmern.
Was wie ein Prinzipienkonflikt erscheint, ist im Kern ein Konflikt um die Definition des Produkts.
Wenn der Kunde Handlungsspielraum kauft, werden Schutzmaßnahmen zu Reibung
Das Pentagon kaufte kein „nützliches Modell“ in der Abstraktion. Es erwarb betriebliche Kapazitäten für geheime Umgebungen und reale Missionen, mit Integration in Datenströme, Zielverarbeitung und Befehl. CBS berichtet, dass der Einsatz von Claude bereits tief eingebettet war: Es wurde erwähnt, dass das Indo-Pazifik-Kommando (INDOPACOM) der “Haupternutzer” war und interne Schätzungen von einer Entfernung zwischen drei und zwölf Monaten sprachen, um Dateneingaben und Abhängigkeiten neu zu konfigurieren.Von der Seite von Anthropic waren die „roten Linien“ als Produktbeschränkungen eingebaut: Verbote gegen großflächige häusliche Überwachung und vollautonome Waffen. In einem traditionellen Unternehmensmarkt können diese Einschränkungen zu einem guten Ruf und einem Risikomanagement für Kunden werden, die vor Markenschäden oder Rechtsstreitigkeiten Angst haben. In der Verteidigung, so das von CBS erfasste Bild, verlangte das DoD „vollständige Flexibilität in allen rechtlichen Anwendungen“ und argumentierte, dass das US-Recht, nicht die Unternehmenspolitik, den militärischen Einsatz regeln sollte.
Hier gibt es einen Aspekt, den viele Vertriebsteams unterschätzen: Wenn eine Organisation eine Technologie „beauftragt“, um souveräne Entscheidungen zu treffen, wird der wahrgenommene Wert an Kontrolle, Verfügbarkeit und Vorhersehbarkeit unter Druck gemessen. Ein System, das sich das Recht vorbehält, „nein“ in extremen Szenarien zu sagen, führt zu nicht-linearen Kosten: Es handelt sich nicht um Kosten pro Token oder Lizenz; es sind Kosten durch Unsicherheit im Moment des maximalen Drucks.
Deshalb wird die Diskussion nicht durch ein abstraktes Sicherheitsdebatte gelöst. Sie wird zu einem Problem der öffentlichen Auftragsvergabe: Wenn der Käufer zu dem Schluss kommt, dass der Anbieter die Nutzung einschränkt, dann wird dieser Anbieter als Lieferkettenrisiko umdefiniert. Das Etikett “Supply Chain Risk” beschreibt keinen technischen Ausfall; es beschreibt eine Unverträglichkeit zwischen dem psychologischen Vertrag des Kunden und dem Produktdesign.
Das Etikett “Lieferkettenrisiko” schreibt die Wirtschaft des Anbieters neu
Die Bezeichnung vom 4. März ist der Wendepunkt. Laut CBS war der Umfang in seiner Formulierung eng: Claude war nur „als Teil eines direkten“ Vertrags mit dem DoD verboten, während Amazon, Google und Microsoft Claude weiterhin kommerziell anbieten konnten, sofern sie keine Verteidigungsarbeiten durchführen. Diese Präzision ist aus zwei Gründen wichtig.Erstens, weil es einen Anreiz schafft, Produkt und Kanäle zu segmentieren. Die großen Cloud-Anbieter können die Verteidigungsexposition isolieren, spezifische Anforderungen absorbieren und ihr ziviles Geschäft schützen. Für ein Unternehmen wie Anthropic, dessen Wachstum von hochvolumigen Aufträgen und institutionellem Vertrauen abhängt, hat das Risiko-Etikett weniger Einfluss auf den Vertrieb und mehr auf den Kern, der das „Seriösität“ des Produkts validiert: den Einsatz in geheimen Umgebungen.
Zweitens, weil es die Verhandlungen mit dem Rest der Verteidigungsindustrie verändert. CBS weist auf die Auswirkungen für Partner wie Palantir hin, die Claude im Maven Smart System verwendet hatten. In Bezug auf Einfluss funktioniert das wie eine Netzwerkordnung: Wenn das DoD ein Element einschränkt, muss jeder Auftragnehmer, der dem DoD verkaufen möchte, seinen Stack neu gestalten. In der Praxis wird die Regierung zum Architekten der Nachfrage und zwingt Migrationskosten auf, die sie selten explizit bezahlt.
Aus einer finanziellen Perspektive sind die 150 Millionen Dollar wiederkehrender Einnahmen aus Aufträgen des Pentagon nur die sichtbare Spitze des Eisbergs. Das größere Risiko ist die Folgewirkung: Wenn Auftragnehmer und Zivilbehörden (CBS erwähnt Pläne des Schatzamtes und der GSA, die Geschäfte zu stoppen) internalisieren, dass der Anbieter durch Dekret ausgeschlossen werden kann, steigen die Adoptionskosten rapide. Nicht, weil es schlechter wird, sondern weil die Kontinuität fragwürdig wird. Diese Unsicherheit schlägt sich in Klauseln, Audits, obligatorischen „Plan B“ und schließlich in einer geringeren Bereitschaft zur Bindung nieder.
Die Klage von Anthropic versucht, diesen Statuswechsel aufzuhalten. Doch während der Prozess läuft, diktiert die alltägliche Wirtschaft: Die Beschaffungs- und Integrations-Teams neigen dazu, das mit geringerer politischer Reibung zu verfolgen.
Der Anbieterwechsel offenbart ein Marktmuster, kein Einzelfall
Die Chronologie, die von CBS erfasst wurde, ist akkurat in ihrem Symbolismus. Stunden nach dem Memo vom 27. Februar unterzeichnete OpenAI einen Vertrag mit dem Pentagon. Und obwohl das formale Verbot vorankam, berichtet CBS, dass die Operation Epic Fury, die am 28. Februar gestartet wurde, Claude weiterhin für Geheimdienste und Zielverarbeitung über den Iran kurzfristig einsetzte. Diese Koexistenz von „verboten“ und „noch in Gebrauch“ ist keine Inkohärenz: es ist Abhängigkeit.Wenn eine Organisation in technologische Abhängigkeit verwickelt ist, ist der Austausch nie sofort, egal wie hart die Anordnung ist. Es gibt Integrationen, Genehmigungen, Datenströme, Benutzerschulung und vor allem betriebliche Abläufe, bei denen KI bereits die Arbeitsweise verändert hat. Deshalb schwankten interne Schätzungen für die Entfernung zwischen drei und zwölf Monaten, selbst mit einer offiziellen Frist von 180 Tagen.
Dieser Vorfall zeigt ein Muster, das ich immer wieder bei Innovationen beobachte: Der Kunde kauft keine „sichere KI“ als Schlagwort. Er kauft eine Kombination aus drei sehr konkreten Dingen: Einsatzgeschwindigkeit, Kontrolle über die Ausführung und politische Absicherung, wenn etwas schiefgeht. Anthropic bot eine KI mit eingebauten Einschränkungen an. Das DoD kaufte eine KI, die ihr Verhalten im entscheidenden Moment nicht neu verhandelt.
In diesem Konflikt gewinnt, wer sein Produkt in eine gehorsame Infrastruktur transformiert. Das bedeutet nicht „ohne Kontrollen“; es bedeutet Kontrollen, die vom Käufer definiert, vom Käufer prüfbar und vom Käufer verwaltbar sind. In der Verteidigung muss ein Unternehmen, das befiehlt, Schutzmaßnahmen als einseitige Politik aufrechtzuerhalten, akzeptieren, dass diese Wahl als eine Bedingung des Dienstes fungiert, die der Kunde als Risiko einstufen kann.
Die Implikationen für den Rest des Marktes sind unangenehm und operativ. Wenn große öffentliche Käufer die Kategorie „Lieferkettenrisiko“ aus Gründen der Nutzungseinschränkungen normalisieren, sieht sich jeder Anbieter von Unternehmens-KI mit strengen Ablehnungspolitiken einer neuen Bewertungsart gegenüber: Es wird nicht nur Genauigkeit, Latenz oder Kosten gemessen; es wird die Fähigkeit gemessen, sich an den rechtlichen Rahmen des Kunden anzupassen, ohne eigene Veto zu verhängen.
Die Lektion für KI-Unternehmen ist, Governance als Produkt zu gestalten
CBS berichtet, dass Anthropic weiterhin Claude an das DoD zu minimalen Kosten während des Übergangs lieferte und dass es kürzlich “produktive” Gespräche über Schutzmaßnahmen gab. Dieses Detail deutet darauf hin, dass die Brücke nicht vollständig verbrannt ist: Selbst im Konflikt benötigt der Käufer Kontinuität, und der Anbieter braucht Zeit, um seine Position zu verteidigen.Aber der strukturelle Wandel hat bereits stattgefunden. Das DoD ordnete den Kommandos an, die Nutzung von Claude selbst zu berichten und die Übergangspriorität festzulegen. Diese zwanghafte Inventarpraxis ist ein Kontrollmechanismus für Abhängigkeiten. Betrachtet man das Geschäftsdurch design, ist die bleibende Frage einfach: Der Kunde möchte, dass der Anbieter eine Komponente verkauft, nicht dass er ihre Nutzung bestimmt.
Für einen CEO oder CFO im KI-Bereich reorganisiert dies die Produktkarte.
1) Governance ist kein Dokument mehr, sondern eine vertragliche Schnittstelle. Wenn die Einschränkungen im Modell „drinnen“ leben, ohne eine für den Kunden akzeptable Verwaltungsebene, wird der Kunde diese Einschränkung als Verlust operativer Souveränität interpretieren.
2) Politisches Risiko wird zu Einnahmerisiko. Die Warnung von Krishna Rao vor Verlusten von “mehreren Milliarden” hängt nicht nur von einem Vertrag ab, sondern auch von der Rufübertragung in der öffentlichen Auftragsvergabe und Verteidigung.
3) Die Migration ist Teil des Wertes. Wenn die Entfernung eines Modells zwischen drei und zwölf Monaten dauert, umfasst der reale Adoptionskosten die Austrittskosten, nicht nur die Eintrittskosten. Wer Werkzeuge für Übergang, Audits und Kompatibilität verpackt, reduziert die Ängste des Käufers und gewinnt Ausschreibungen.
Der typische blinde Fleck von KI-Startups ist der Glaube, dass das Modell das Produkt ist. In Hochrisikobereichen ist das Produkt das gesamte System: Genehmigungen, Rückverfolgbarkeit, betriebliche Kontinuität, Nutzungsvorschriften und wer den endgültigen Schlüssel hat.
Ich schließe mit einer technischen Feststellung über das Verhalten des Kunden: Diese Episode zeigt, dass das Pentagon eine KI-Kapazität beauftragte, um seinen Handlungsspielraum im Einklang mit Gesetz und Befehlskette zu erhöhen, und jeder Anbieter, dessen Vorschlag einseitige Ablehnungen enthält, wird als ersetzbare Zutat und nicht als strategischer Partner konkurrieren.












