Wenn "legaler Gebrauch" mit Sicherheit kollidiert: Der Kampf um die Kontrolle über Militär-KI
Es ist selten, dass ein Technologielieferant "Nein" sagt, wenn bis zu 200 Millionen Dollar auf dem Tisch liegen und der Kunde der größte Verteidigungshaushalt der Welt ist. Dennoch tat Anthropic genau das.
Am 26. Februar 2026 veröffentlichte der CEO, Dario Amodei, dass das Unternehmen "aus Gewissensgründen" die Forderung des US-Verteidigungsministeriums, die Sicherheitsvorkehrungen von Claude aufzuheben, nicht annehmen kann. Im Zentrum des Streits stehen zwei Grenzen: die Nutzung des Modells für massive Inlandsüberwachung und für vollständig autonome Waffen zu verbieten. Laut Berichten des Guardian reagierte das Pentagon unter Verteidigungsminister Pete Hegseth mit einem Ultimatum: Falls Anthropic die Nutzung von Claude für "alle gesetzlichen Zwecke" in geheimen Umgebungen nicht erlaubt, könnte der Vertrag um 17:01 Uhr ET am 27. Februar gekündigt werden, und das Unternehmen könnte als "Risiko für die Lieferkette" eingestuft werden. Eine Einstufung, die normalerweise mit externen Bedrohungen assoziiert wird, nicht mit einem amerikanischen Unternehmen.
Die Oberfläche der Nachricht scheint einen Konflikt von Werten darzustellen. Die eigentliche Mechanik ist jedoch unangenehmer: Die Regierung versucht, die Steuerung eines Modells in eine Vertragsklausel umzuwandeln, während das Unternehmen versucht, seine Sicherheitsrichtlinien zu einer Bedingung des Dienstes zu machen. Dazwischen stehen die Betreiber, die Fähigkeiten benötigen, und die Steuerzahler, die Garantien brauchen.
Der Vertrag als Schlachtfeld um die Kontrolle des Modells
Wichtig ist nicht nur, dass ein Vertrag über 200 Millionen Dollar besteht. Es ist die Natur des Vermögenswerts, der gekauft wird. Ein basales Modell ist keine herkömmliche Software, die ausgeliefert und in einer Version "geschlossen" bleibt. Es handelt sich um ein System, das aktualisiert, verfeinert und in Datenfluss integriert wird und mit der Zeit neue Fähigkeiten erwirbt. In der Praxis ähnelt der Kauf von KI heute mehr der Beauftragung kritischer Infrastruktur als der Lizenzierung eines Produkts.
Deshalb drängt das Pentagon auf die Formel "alle gesetzlichen Zwecke". Aus seiner Sicht bedeutet jede zusätzliche Einschränkung, dass ein privater Anbieter dem Staat operationelle Grenzen auferlegt. Der stellvertretende Minister für Forschung und Ingenieurwesen, Emil Michael, stellte in Aussagen, die vom Guardian zitiert wurden, das Problem als eine Verteidigung der Bürgerrechte gegenüber Entscheidungen von „BigTech“ dar und stellte in Frage, dass ein Unternehmen Grenzen setzt, die über demokratisch genehmigte Normen hinausgehen.
Anthropic hingegen argumentiert, dass die vorgeschlagene Formulierung es ermöglichen würde, dass seine Sicherheitsvorkehrungen willkürlich ignoriert werden. Ein anonymer Sprecher beschrieb, dass der letzte Entwurf, den sie vom Verteidigungsministerium erhielten, "praktisch keinen Fortschritt" zeigte und dass das "Engagement" hauptsächlich legalistischer Natur war. Das Unternehmen diskutiert das Militärwesen im Allgemeinen nicht; Amodei hat sogar geschrieben, dass er an der "existentiellen Bedeutung" von KI zur Verteidigung der Vereinigten Staaten glaubt. Es werden zwei Anwendungen diskutiert, bei denen, so die These, das Modell "demokratische Werte untergraben" könnte.
Das ist das strategische Signal für den Markt: Die Verhandlung dreht sich nicht mehr um Preis, Leistung oder Unterstützung. Es geht darum, wer den Bypass-Schlüssel hat. Wenn der Kunde die Kontrollmechanismen "nach Bedarf" deaktivieren kann, werden die Sicherheitsvorkehrungen zur Dekoration. Wenn der Anbieter Kategorien der Nutzung selbst in geheimen Umgebungen blockieren kann, hat der Staat das Gefühl, dass er operationale Souveränität outgesourct hat.
Die Bedrohung, Anthropic als "Risiko für die Lieferkette" zu kennzeichnen, verstärkt das Poker: Es bestraft nicht nur den aktuellen Vertrag, sondern auch die zukünftige Fähigkeit zu verkaufen an die Regierung und von Auftragnehmern wie Boeing oder Lockheed Martin akzeptiert zu werden, die aufgefordert wurden, ihre Exponierung zu bewerten, laut denselben Berichten. Es ist ein Machtinstrument, das die Anreize im gesamten Sektor umstrukturiert.
Sicherheit wird von einem Prinzip zu einer Produktarchitektur
Von außen betrachtet, klingt "Sicherheitsvorkehrungen" nach einer Unternehmenspolitik. In Wirklichkeit ist es Produktdesign und damit auch Machtstruktur. Wenn ein Modell massive Überwachung oder autonome Waffen untersagt, beschränkt es somit die Skalierbarkeit bestimmter Anwendungen. Und hier entsteht die Reibung: KI senkt Grenzkosten und macht das, was zuvor teuer war, replizierbar.
Im Bereich der Überwachung ist der Wandel brutal. Der Unterschied zwischen der manuellen Analyse verstreuter Informationen und der Automatisierung von Klassifikation, Priorisierung und Korrelation ist der Übergang von einer teuren Operation zu einer potenziell allgegenwärtigen Fähigkeit. Die gleiche Logik gilt für letale Systeme: Die Automatisierung verringert Reibung, beschleunigt Entscheidungszyklen und verwischt die Verantwortlichkeit, falls kein explizites Design menschlicher Aufsicht vorhanden ist.
Das Pentagon besteht darauf, dass es sich an Gesetze wie die Vierte Änderung hält, gemäß den zitierten Argumenten, und dass es keine privaten zusätzlichen Beschränkungen akzeptieren darf. Dieser Punkt ist auf institutioneller Ebene kohärent. Das Problem ist, dass "legal" und "vorsichtig" in Systemen, die Kapazitäten verstärken, nicht synonym sind. Eine Nutzung kann legal sein und dennoch einen operationellen Präzedenzfall schaffen, der später schwer abzubauen ist.
Hier sehe ich den Kern der politischen Ökonomie der KI: Die Diskussion verschiebt sich von "Was kann das Modell tun" zu "Was kann das umgebende System tun". Ein Modell in einer geheimen Umgebung, integriert über Plattformen wie Amazon und Palantir (in der Geschichte erwähnt), ist kein Chatbot. Es ist ein Bestandteil einer Entscheidungsfindungskette. In diesem Zusammenhang sind die Sicherheitsvorkehrungen weniger eine moralische Position und mehr eine Art systemisches Risiko zu managen.
Was Anthropic verteidigt, zumindest in seiner öffentlichen Darstellung, ist die Idee von KI als erweiterte Intelligenz, nicht als Ersatz für menschliches Urteilsvermögen. Wenn ein System für massive Überwachung oder zur Delegierung von Letalität eingesetzt wird, hört der Mensch auf, Aufsicht auszuüben, und wird im besten Fall nur ein nachträglicher Unterzeichner. Diese Grenze ist es, die das Unternehmen vertraglich festzulegen versucht.
Ein Präzedenzfall, der den Markt für Verteidigungs-KI-Anbieter umstrukturiert
Der Markt hatte bereits begonnen, eine These zu konsolidieren: Das Verteidigungsministerium will keinen Anbieter, es will einen Katalog. Letzten Sommer vergab das Chief Digital & AI Office Aufträge von bis zu 200 Millionen an Anthropic, Google, xAI und OpenAI, um generative KI für militärische Anwendungen zu personalisieren, laut The Guardian. Das offensichtliche Ziel ist es, die Abhängigkeit von einem einzigen Akteur zu vermeiden und Fähigkeiten zu beschleunigen.
Aber das Detail, das die Verhandlung ändert, ist, dass Anthropic, gemäß derselben Quelle, das einzige Modell ist, das bis jetzt in geheimen Umgebungen verwendet wird, was ihm einen Vorteil in Erfahrung und damit in Verhandlungsmacht gibt. Diese Macht ist genau das, was das Pentagon versucht zu neutralisieren, indem es die Klausel "alle gesetzlichen Zwecke" als vertragliche Basis standardisiert.
Wenn diese Klausel zur Norm wird, ist die Botschaft an die anderen Anbieter klar: Wer in den geheimen Bereich eintreten möchte, muss akzeptieren, dass interne Richtlinien nicht als Grenzen fungieren. Es ist nicht notwendig, dass die Regierung verspricht, sie für massive Überwachung oder autonome Waffen zu verwenden. Sie muss nur sicherstellen, dass sie das Recht hat, dies zu tun, wenn ihre rechtliche Interpretation es zulässt.
Parallel dazu öffnet sich ein wettbewerbsfähiger Weg. Die Nachricht erwähnt, dass xAI den Standard von "alle gesetzlichen Zwecke" für geheime Arbeiten akzeptiert hat. Das schafft ein unmittelbares finanzielles Risiko für Anthropic: den Vertrag zu verlieren bedeutet nicht nur potenzielle Einnahmen zu verlieren, sondern auch Boden in einem Segment zu verlieren, in dem Glaubwürdigkeit durch tatsächliche Einsätze und nicht durch Versprechen aufgebaut wird.
Es gibt auch Kosten für das Pentagon, wenn es die Drohung umsetzt. Der Sprecher Sean Parnell warnte auf X, dass die Einstellung dieser Nutzungen Operationen und die „Kämpfer" gefährden würde, und dass sie nicht zulassen würden, dass "irgendein Unternehmen die Bedingungen diktiert". Diese Haltung verschärft die Verhandlung, erhöht aber auch die reputationalen Kosten, auf einen bereits integrierten Anbieter zu verzichten. Der Wechsel des Anbieters in der Verteidigung ist selten ein reibungsloser Übergang, auch wenn Amodei signalisiert hat, dass er zu einem "reibungslosen Übergang" zu einem anderen bereit ist.
Der weniger kommentierte Winkel ist die industrielle Governance: Wenn die Vereinigten Staaten ein lokales Unternehmen in einem vertraglichen Konflikt als "Risiko für die Lieferkette" einstufen, internalisiert der gesamte Sektor, dass Nichteinhaltung als Bedrohung bestraft wird. Dies beschleunigt die "Disziplin" des Marktes, kann jedoch diejenigen entmutigen, die robuste Sicherheitsbarrieren durch Design aufbauen.
Der Faktor Verteidigungsproduktion und die Ausweitung der staatlichen Macht über Modelle
Die Berichterstattung weist auch darauf hin, dass das Pentagon in Erwägung zog, das Defense Production Act (DPA) zu bemühen, um uneingeschränkten Zugang zu erzwingen, obwohl rechtliche Bedenken von Politikexperten zur KI geäußert wurden. Diese Möglichkeit ist wichtig, selbst wenn sie nie ausgeführt wird. Es ist ein Zeichen dafür, dass der Staat bereit ist, fortschrittliche Modelle als strategische Ressourcen zu behandeln und Instrumente von Kriegszeiten in die digitale Wirtschaft hinein zu treiben.
Aus unternehmerischer Sicht verändert das DPA die Risikobewertung. Wenn die Regierung ein System als "wesentlich" deklarieren und Bedingungen erzwingen kann, dann wird die Strategie "für den öffentlichen Sektor verkaufen, um Einnahmen zu stabilisieren" komplex. Der Vertrag ähnelt mehr einem Vertrag mit gewaltigen Zwangsmöglichkeiten. Und das zwingt die Vorstände dazu, zu hinterfragen, was sie wirklich kaufen: Verkäufe oder Exposition.
Es gibt ein Widerspruch, den Amodei hervorgehoben hat und der operationell relevant ist: Während gleichzeitig gedroht wird, Anthropic ein Risiko für die Lieferkette zu erklären, wird evaluiert, den Zugang zu erzwingen, weil das Modell für die nationale Sicherheit entscheidend wäre. Diese Spannung ist nicht nur rhetorisch; sie offenbart einen Staat, der Abhängigkeit ohne Abhängigkeit will, das heißt, Zugang und Kontrolle, ohne die Asymmetrie zu akzeptieren, dass der Anbieter ebenfalls Macht hat.
Die wahrscheinliche Auslösung ist kein absoluter Sieg einer Seite. Es ist eine vertragliche Neugestaltung, die eine Grauzone schaffen wird: Sicherheitsvorkehrungen auf Papier, Ausnahmen unter bestimmten Prozessen, interne Audits und eine Sprache, die dem DoD Handlungsspielraum bewahrt. Das Problem der Grauzone ist, dass das, was technisch nicht garantiert ist, im Laufe der Zeit erodiert.
Was jedoch eindeutig bleibt, ist das Muster: KI in der Verteidigung tritt in eine Phase ein, in der der kritische Vermögenswert nicht mehr das Modell ist, sondern die Kontrolle seiner Nutzung. Wer diesen Hebel kontrolliert, kontrolliert den Wert.
Die unvermeidliche Richtung ist technische Governance, nicht nur Klauseln
Als Zukunftsforscherin, die auf Auswirkungen fokussiert ist, sehe ich diesen Streit als ein Symptom von Reife. KI ist nicht mehr ein "innovativer Kauf", sondern hat sich zur Infrastruktur entwickelt. In der Infrastruktur geht es in der realen Diskussion darum, wer Grenzen definiert, wer Ausnahmen prüft und wer die Kosten trägt, wenn eine "legale" Nutzung operationale, politische oder gesellschaftliche Schäden verursacht.
Das C-Level sollte diesen Fall als eine Lehre über den Kauf von KI in regulierten Sektoren lesen: Die Sicherheitsprinzipien, die nicht in Architektur und Prozesse integriert sind, enden als vertragliche Anhänge, und die Anhänge brechen unter Druck. Wenn die Sicherheit von guter Absicht abhängt, skaliert sie nicht.
Es ist auch eine Erinnerung daran, wie die digitale Konvergenz Entscheidungsmonopole erodiert. Weder die Regierung kann die totale Kontrolle über Modelle, die im privaten Sektor aufgebaut werden, beanspruchen, noch können Unternehmen behaupten, dass interne Richtlinien demokratische Rahmenbedingungen ersetzen. Der einzige stabile Ausweg besteht darin, Systeme zu entwerfen, in denen die erweiterte Intelligenz menschliche Aufsicht und Nachverfolgbarkeit bewahrt.
Dieser Markt bewegt sich von Digitalisierung zu Disruption in der Governance: Der Wert wird dorthin verschoben, wo Sicherheitsvorkehrungen in prüfbare Ingenieurskunst umgewandelt werden und die Kosten eingehalten werden, ohne die Fähigkeiten zu degradieren. Die Technologie muss menschliches Urteilsvermögen stärken und Garantien demokratisieren, nicht nur Operationen beschleunigen.











