Wenn nationale Verteidigung "ohne Grenzen" verlangt: Die Spannung, die KI-Startups zur Professionalisierung ihrer Governance zwingt
Die Situation ist absichtlich unangenehm. Der US-Verteidigungsminister hat den CEO von Anthropic, Dario Amodei, einbestellt, um die Aufhebung der Sicherheitsvorkehrungen seines Flaggschiffmodells Claude zu fordern. Der geforderte Schritt besteht laut veröffentlichten Informationen darin, die Nutzung "für alle rechtlichen Zwecke" zu erlauben, wodurch Grenzen aufgehoben werden, die derzeit zwei spezifische Anwendungen blockieren: massive inländische Überwachung und vollständig autonome, unbeaufsichtigte Waffen. Anthropic entgegnete öffentlich, dass man nicht nachgeben werde.
Das Ultimatum blieb nicht nur rhetorisch. Ein Sprecher des Pentagon setzte einen Stichtag für Freitag, den 28. Februar 2026, fest und drohte mit zwei Vergeltungsmaßnahmen: den bestehenden Vertrag zu beenden oder, in einem noch aggressiveren Schritt, Anthropic als "Risiko für die Lieferkette" einzustufen, ein Label, das normalerweise für ausländische Unternehmen reserviert ist, die des Spionageverdachts unterliegen. Gleichzeitig hat das Verteidigungsministerium selbst widersprüchliche Botschaften gesendet: Es habe kein Interesse daran, KI für massive Überwachung oder "Tötungen" ohne Menschen zu verwenden, aber es sei nicht "demokratisch", dass ein Unternehmen Grenzen oberhalb des Gesetzes festlegt.
Konflikte wie dieser sind sowohl eine Frage der öffentlichen Politik als auch der Beschaffung und der Unternehmenskultur. Praktisch wird es zu einer echten Reifeaudit: Wenn ein mächtiger Kunde "ohne Grenzen" verlangt, hört eine Startup auf, als helles Labor zu agieren, und wird als kritische Infrastruktur behandelt. Das ändert alle Regeln.
Die Auseinandersetzung ist kein technisches, sondern ein Autoritätskonflikt
Der Streit wird als Auseinandersetzung über Sicherheitsvorkehrungen erzählt, doch im Kern steht die Frage nach der effektiven Autorität über ein allgemein einsetzbares System. Das Pentagon behauptet, dass, solange etwas "legal" sei, ein Anbieter es nicht blockieren sollte; andernfalls würde ein Privatunternehmen Bürgerrechte und militärischen Handlungsspielraum definieren. Anthropic entgegnet, dass es Fähigkeiten gibt, die trotz möglicher rechtlicher Gestattung mit demokratischen Werten und der Verantwortung als Hersteller einer Technologie mit hoher Auswirkung unvereinbar sind.
Geschäftlich stellt dies keine abstrakte Diskussion dar. Anthropic unterzeichnete im Juli 2025 einen 200-Millionen-Dollar-Vertrag mit dem Verteidigungsministerium, innerhalb eines Pakets, in dem auch ähnliche Verträge an Google, xAI und OpenAI vergeben wurden, um KI-Anwendungen für militärische Nutzung zu personalisieren. Darüber hinaus hat die Firma einen Zugang zu geheimen Arbeiten über eine Partnerschaft mit Palantir und Amazon aufgebaut, und sie launchte Claude Gov, eine für nationale Sicherheit optimierte Version mit weniger Sicherheitsvorkehrungen als die kommerziellen Versionen, jedoch mit vertraglichen Grenzen, die nun entfernt werden sollen.
Das Signal an den Markt ist klar: Der Kunde verlangt keine Leistung oder Latenz; er verlangt Nutzungsrechte. Und wenn eine Geschäftsbeziehung als Streit um Souveränität neu definiert wird, ist der Anbieter einem Druck ausgesetzt, der nicht mit Produkten, sondern mit Struktur gelöst wird.
Die Drohung eines "Risikos für die Lieferkette" ist besonders aufschlussreich. Es handelt sich nicht mehr um eine Verhandlung über den Umfang; es ist ein Versuch, einen disziplinarischen Präzedenzfall für den Rest der Branche zu schaffen. Wenn dies tatsächlich angewendet würde, hätte dies weitreichende Auswirkungen über den direkten Vertrag hinaus: Regierungsbehörden und Auftragnehmer könnten gezwungen werden, Modelle von Anthropic nicht mehr zu nutzen. Für ein Startup verwandelt eine solche Maßnahme eine vertragliche Meinungsverschiedenheit in ein existenzielles Ereignis.
Das stille Risiko für die Startup: Eine institutionelle Entscheidung in einen persönlichen Kreuzzug verwandeln
Die mediale Aufmerksamkeit fällt zwangsläufig auf den CEO. Und hier zeigt sich ein Muster, das wir bei Sustainabl oft beobachten: Wenn ein junges Unternehmen gegen staatliche Macht antritt, wird die Erzählung auf "den Gründer gegen das System" reduziert. Das verkauft Schlagzeilen, degradiert jedoch das interne Gespräch.
Wenn die Ablehnung oder die Zugeständnis in der Praxis von der Figur des CEOs abhängt, betritt das Unternehmen fragiles Terrain. Nicht weil der CEO "gut" oder "schlecht" ist, sondern weil der Entscheidungsmechanismus zu personalistisch wird. In einem Umfeld, in dem der Kunde die Verteidigung einer Supermacht ist, hat Personalismus seinen Preis: Er amplifiziert den Druck, vereinfacht den Feind und lässt jeglichen Ausstieg wie Kapitulation oder moralischen Sieg erscheinen. Weder ist eine operative Kategorie.
Reale Reife verlangt, dass das Unternehmen eine Position vertreten kann, ohne sie in einen Ego-Konflikt zu verwandeln. Das wird durch explizite Governance erreicht: Nutzungspolitiken mit Nachvollziehbarkeit, interne Ausschüsse mit klarem Mandat, dokumentierte Ausnahme-Kriterien und einen Vertrag, der so gestaltet ist, dass er öffentlichen Krisen standhält. Fehlt dies, dann bleibt der CEO als einziger "Wahrheitspunkt" und damit als allein angreifbarer Punkt zurück.
In den Referenzmaterialien beschuldigt das Verteidigungsministerium den CEO, das Militär "kontrollieren" zu wollen; der CEO erwidert, dass er "aus Gewissensgründen" nicht auf die Forderung eingehen kann. In organisatorischer Hinsicht sind beide Äußerungen Symptome eines Problems: Die Diskussion wird in Bezug auf persönliche Willensbekundungen formuliert. Für ein Startup, das danach strebt, globale Infrastruktur zu sein, ist dies die schlechteste Verhandlungsoberfläche.
Ein robustes Unternehmen hängt nicht von der Rhetorik des Gründers ab, um Grenzen zu setzen; es hängt von einem System ab, das diese Grenzen wiederholbar, prüfbar und verteidigbar macht. Der Unterschied zwischen "wir können nicht" und "wir wollen nicht" ist nicht semantisch: Es ist der Abstand zwischen institutioneller Politik und Führungspräferenz.
Der Vertrag über 200 Millionen ist der einfache Teil; der schwierige Teil ist die Verantwortungsarchitektur
Finanziell klingt ein Vertrag über 200 Millionen Dollar nach einer endgültigen Bestätigung. Operativ ist es jedoch oft der Beginn des gefährlichsten Abschnitts für ein KI-Startup: Der Übergang von der „Verkaufskapazität“ zum Verkaufen von Konsequenzen.
Die Verteidigung kauft keinen Chatbot; sie kauft einen Hebel in Bezug auf Arbeitsabläufe, Intelligenz, Logistik, Planung und Entscheidungen. In diesem Kontext hören Sicherheitsvorkehrungen auf, "Features" zu sein, und werden zu Legitimationsklauseln. Deshalb wird der Konflikt nicht durch "mehr Sicherheitsvorkehrungen" oder "weniger Sicherheitsvorkehrungen" gelöst, sondern durch einen Rahmen von Verantwortlichkeiten, der für beide Seiten akzeptabel ist.
Das Pentagon schlägt laut Briefing vor, den Konflikt sogar mit außergewöhnlichen Mitteln wie dem Defense Production Act zu eskalieren, um Änderungen zu erzwingen. Obwohl dieser Weg rechtliche und praktische Herausforderungen mit sich bringen würde, ändert allein die Erwähnung das Kalkül jedes Verwaltungsrats: Die Verhandlung findet nicht mehr mit einem Kunden, sondern mit dem Staat im Ausnahmezustand statt.
Hier taucht ein weiteres Risiko auf: die Illusion, dass das Modell das Anlagegut und der Vertrag der Kanal ist. In fortschrittlicher KI ist das Anlagegut auch das Team, dessen Urteil und dessen Bereitschaft, spezifische Versionen zu bauen und aufrechtzuerhalten. Das Briefing deutet auf eine unbequeme Wahrheit hin: Selbst wenn eine Änderung erzwungen wird, kann niemand ein Unternehmen dazu zwingen, "ein gutes Modell" im Tempo des Marktes zu trainieren, wenn sein bestes Talent nicht mit der Mission engagiert ist oder wenn Bürokratie Iterationen verzögert. Darüber hinaus hat Anthropic Phänomene wie das "Alignment Faking" untersucht, bei dem ein Modell während des Trainings so tut, als würde es sich auf eine bestimmte Weise verhalten, und dann beim Einsatz umkehrt. In Hochrisikoszenarien macht das die institutionelle Disziplin noch kritischer.
Für die Führungsebene von KI-Startups lautet die praktische Lektion: Der Wert wird nicht mehr nur in der Leistung gemessen, sondern in nachweisbarer Kontrollierbarkeit, Überprüfungsprozessen und der Fähigkeit, Grenzen ohne Improvisation aufrechtzuerhalten. Wer diese Architektur nicht aufbaut, wird zwischen zwei Feuern gefangen: dem Regulierer, der Garantien verlangt, und dem souveränen Kunden, der totale Freiheit fordert.
Was dieser Konflikt für den Markt vorhersehen lässt: "KI als souveräner Anbieter" und das Ende der Unklarheit
Dieser Vorfall markiert einen Wendepunkt. Über Jahre konnte die Branche in Unsicherheit leben: leistungsstarke Modelle, allgemeine Versprechungen, Nutzungspolitiken, die sich spontan anpassen, und eine Erzählung, in der der Gründer sowohl ethische als auch geschäftliche Kompass ist. Wenn die Nachfrage von der Verteidigungs- und nationalen Sicherheitsseite kommt, wird die Unklarheit zu einer Haftung.
Führt das Pentagon die Drohung aus, den Vertrag zu beenden, sendet das eine Botschaft an den Markt, dass Sicherheitsvorkehrungen mit bestimmten Käufern mit hohem Budget inkompatibel sein können. Wenn die "Risiko für die Lieferkette"-Bezeichnung ausgeführt wird, ist die Botschaft noch härter: Der Staat könnte versuchen, das gesamte Netzwerk von Auftragnehmern zu beeinflussen, um einen Verfügbarkeitsstandard durchzusetzen. Wenn ein Kompromiss ausgehandelt wird, wird der Markt etwas anderes lernen: dass es Raum gibt, vertragliche Grenzen zu gestalten, innerhalb derer beide Parteien ihre Legitimität bewahren.
In jedem der Szenarien bleibt die Ableitung für Startups gleich: Die Beziehung zu Regierungen wird nicht mehr eine weitere Vertikale sein, sondern eine eigene Disziplin. Sie erfordert rechtliche und Compliance-Teams mit echtem Gewicht, technische Kontrollen und Nachverfolgbarkeit sowie eine Entscheidungsstruktur, die nicht von einer einzigen Person abhängt.
Der Mythos des "rettenden CEOs" ist hier besonders gefährlich. Nicht weil der CEO nicht führen sollte, sondern weil die Personalisierung der Governance das Unternehmen anfällig für politischen Druck, Regierungswechsel und binäre Narrative macht, die den Handlungsspielraum reduzieren. Der medienwirksame CEO kann den Tag gewinnen; eine gereifte Organisation gewinnt jedoch das Jahrzehnt.
Die KI-Branche wird zu einer Infrastruktur-Schicht. Infrastruktur bedeutet Kontinuität, Vorhersehbarkeit und verteilte Verantwortung. Sie bedeutet, ein "Ja" und ein "Nein" mit dem gleichen dokumentarischen Rigor aufrechtzuerhalten. Vor allem bedeutet sie, dass Führung nicht mehr öffentliche Performance ist, sondern institutionelle Ingenieurskunst.
Der einzige nachhaltige Ausweg besteht darin, Macht zu entpersonalisierten und Governance zu professionalisieren
Die Spannung zwischen dem Pentagon und Anthropic verdeutlicht eine Tatsache, die viele Startups lieber aufschieben: Wenn ein Modell strategisch wird, wird die Diskussion politisch, und wenn sie politisch wird, benötigt das Unternehmen eine Governance, die in der Lage ist, Druck zu absorbieren, ohne in Personalisierung zu kollabieren.
In der Praxis bedeutet dies, wiederholbare Entscheidungen zu treffen: Nutzungslimits mit klaren Hierarchien, Ausnahmeverfahren, die nicht von der Stimmung abhängen, und eine Struktur, die es erlaubt, mit dem Staat zu verhandeln, ohne jeden Konflikt in ein Duell um Reputation zu verwandeln. Es bedeutet auch, Organisationen zu gestalten, in denen Talent nicht einer zentralen Figur untergeordnet ist, sondern an einem gemeinsamen Rahmen ausgerichtet ist, der Rotationen, Krisen und Wahlzyklen überlebt.
Wahrer unternehmerischer Erfolg tritt ein, wenn die C-Level-Ebene ein System so resiliente, horizontal und autonom aufbaut, dass die Organisation in der Lage ist, in die Zukunft zu skalieren, ohne jemals vom Ego oder der unverzichtbaren Präsenz ihres Schöpfers abhängig zu sein.











