Die Verteidigung als Ankerkunde: OpenAI macht Sicherheit zur Geschäftsvoraussetzung

Die Verteidigung als Ankerkunde: OpenAI macht Sicherheit zur Geschäftsvoraussetzung

Nach dem Konflikt zwischen Anthropic und dem Pentagon über die Aufhebung von Sicherheitsmaßnahmen verhandelt OpenAI über den Zugang zu geheimen Netzwerken.

Javier OcañaJavier Ocaña28. Februar 20266 Min
Teilen

Sam Altman teilte den Mitarbeitern von OpenAI in einer Betriebsversammlung am Freitag, den 27. Februar 2026, mit, dass das Unternehmen einen Vertrag mit dem US-Verteidigungsministerium aushandelt, um seine KI-Modelle und -Tools einzusetzen. Der wirklich entscheidende Punkt ist nicht die Schlagzeile, sondern das operative Detail: OpenAI strebt an, sein eigenes "Safety Stack" zu erhalten, das heißt, technische, politische und menschliche Kontrollen zwischen dem Modell und dem Endgebrauch zu bewahren und zu verhindern, dass der Kunde die Ablehnungen des Modells für spezifische Aufgaben außer Kraft setzt. Fortune berichtete, dass der Vertrag noch nicht abgeschlossen oder unterzeichnet war, laut einer Quelle, die bei dem Treffen anwesend war, sowie einer vom Medium überarbeiteten Zusammenfassung.

Die Verhandlungen kommen nach einem öffentlichen Bruch zwischen dem Pentagon und Anthropic. Laut demselben Bericht weigerte sich Anthropic, Sicherheitsmaßnahmen in seinem Modell Claude aufzuheben, die die massenhafte Überwachung im Inland und vollständig autonome Waffen einschränkten, und das, obwohl Druck ausgeübt wurde, um die Nutzung "für alle rechtlichen Zwecke" zu ermöglichen. Parallel dazu befahl Präsident Donald Trump den Bundesbehörden, die Technologie von Anthropic nicht mehr zu nutzen, mit einer Ausstiegsfrist von sechs Monaten, und der Verteidigungsminister Pete Hegseth kündigte an, dass das Verteidigungsministerium Anthropic als Risiko in Bezug auf die Lieferkette für die nationale Sicherheit einstufen würde, wodurch die Auswirkungen über die Regierung hinaus vergrößert wurden.

Stunden später veröffentlichte Altman in X, dass OpenAI eine Vereinbarung mit dem Verteidigungsministerium erzielt habe, um in dessen geheimes Netzwerk zu operieren, und betonte zwei Punkte: das Verbot massenhafter Überwachung im Inland und die menschliche Verantwortung beim Einsatz von Gewalt, einschließlich autonomer Waffen. Der Wettbewerbsdruck ist offensichtlich, aber meine Einschätzung ist kühler: Diese Episode zeigt, dass in der fortgeschrittenen KI Sicherheitsvorkehrungen nicht mehr nur ein ethisches Gestus sind, sondern eine Klausel zur Produktkontrolle, die definiert, wer den Gewinn einfängt, wer das Reputationsrisiko übernimmt und wer in den Kosten für die Einhaltung gefangen bleibt.

Wenn ein Kunde dich bittet, "Bremsen zu entfernen", bedeutet dies tatsächlich, dass er die Kontrolle über die Gewinnmarge haben möchte

In Hochrisikodiensten – und Verteidigung ist definitionsgemäß einer – kauft der Kunde nicht nur die Kapazität. Er kauft auch Verantwortlichkeiten, und wenn er versucht, die Grenzen der Nutzung zu verschieben, versucht er, die Verteilung dieser Verantwortlichkeiten umzukonfigurieren. Im Fall von Anthropic konzentrierte sich der Konflikt, wie von Fortune berichtet, auf die Forderung, Sicherheitsvorkehrungen in Bezug auf die Überwachung im Inland und autonome Waffen aufzuheben, während das Pentagon auf einer Verfügbarkeit für "rechtliche Zwecke" bestand. Die Folge war doppelt: eine Drohung über einen Vertrag von bis zu 200 Millionen Dollar und schließlich eine politische Eskalation, die den Rückzug von Anthropic aus den Bundesbehörden anordnete und eine Einstufung als Risiko in Bezug auf die Lieferkette anordnete.

Von der finanziellen Architektur her übersetze ich das so: Wenn ein Kunde schafft, dass der Anbieter die Grenzen des Produkts aufhebt, wechselt der Anbieter von der Verkauf einer Werkzeug zu der Unterauftragsvergabe des Risikos. Und das Risiko wird früher oder später zu einem Kostenfaktor. Rechtliche Kosten, Compliance-Kosten, Kosten für interne Sicherheit, Talentkosten, Kosten für Versicherungsprämien und kommerzielle Kosten in anderen Segmenten. Man muss keine Zahlen erfinden; man muss nur die Mechanik verstehen. In der KI sind die dominierenden variablen Kosten Rechenoperationen. Wenn man zudem eine lange Reihe unsicherer Kosten für extreme oder politisch sensible Nutzung hinzufügt, hört die Gewinnmarge auf, eine Zahl zu sein, und wird zu einer Wette.

Daher ist die Bedeutung von Altmans Nachricht an das Personal von entscheidender Bedeutung: OpenAI verhandelt darüber, ein eigenes "Safety Stack" aufrechtzuerhalten und zu verhindern, dass der Kunde "Overrides" auf die Ablehnungen des Modells anwendet. Das ist eine Art, dem Käufer zu sagen: Der Service wird unter technischen Bedingungen erbracht, die den Umfang des Produkts bewahren. Das schützt das Unternehmen, stabilisiert aber auch die Wirtschaftlichkeit des Vertrags, da es die Wahrscheinlichkeit verringert, dass das Abkommen in Ad-hoc-Anforderungen, operationale Ausnahmen und einen steigenden Bedarf an menschlicher Unterstützung resultiert, die die Marge erodieren.

Verteidigung als Ankerkunde: vorhersehbarer Fluss im Austausch gegen strenge Einschränkungen

OpenAI befindet sich an diesem Tisch in einem Kontext, in dem der Sektor versucht, grundlegende Modelle zu monetarisieren, die kapital- und rechenintensiv sind. Wenn das Produkt hohe variable Kosten hat, besteht die typischen Versuchung darin, ein hohes Volumen zu erzielen. Aber in der Regierung und Verteidigung ähnelt das Volumen nicht dem Massenverbrauch: Es gleicht Verträgen mit hohen Einzelbeträgen, langsamen Einkaufszyklen und Sicherheitsanforderungen, die einen Teil der Kosten fix übernehmen.

Der entscheidende Punkt des Fortune-Briefings ist, dass Altman die Grenzen des Einsatzes spezifiziert haben soll, einschließlich, dass der Einsatz in Cloud-Umgebungen und nicht in "Edge"-Systemen wie Flugzeugen oder Drohnen erfolgen würde. Zudem würde sich die erwähnte Vereinbarung in X auf den Einsatz innerhalb der geheimen Netzwerke konzentrieren. Dieser Rahmen ist entscheidend, weil er die Kostenkurve festlegt. Der Einsatz in geheimen Netzwerken ist nicht trivial, aber die Abgrenzung des Umfangs reduziert die Kombination: weniger extreme Integrationen, weniger kritische Latenzszenarien, weniger Bedarf an Zertifizierungen, die mit operativer Hardware verbunden sind.

Finanziell kann ein "Ankerkunde" im Verteidigungssektor zwei Rollen spielen. Erstens kann er wiederkehrende Einnahmen von hoher Qualität bereitstellen, die typischerweise weniger anfällig für den wirtschaftlichen Zyklus sind als ein Verbrauchssegment. Zweitens kann er als Validierer für regulierte B2B-Verkäufe fungieren. Aber der versteckte Preis ist das Risiko, durch Anforderungen gefangen zu werden, die die fixen Kosten erhöhen: engagierte Teams, Audits, Incident Response und starre Vertragsführungen.

Deshalb ist es von entscheidender Bedeutung, dass OpenAI strebt, sein "Safety Stack" aufrechtzuerhalten. Es ist ihre Art, die "Scope Creep" zu begrenzen und ihre Kostenstruktur zu sichern. Ein großer Vertrag, der in Komplexität schneller wächst als im Umsatz, ist ein Vertrag, der dich groß erscheinen lässt, während er dich fragil zurücklässt.

Das Vakuum, das Anthropic hinterlässt, ist nicht nur kommerziell: es ist eine Machtumstrukturierung

Bis zu diesem Vorfall war Anthropic, laut Fortune, der einzige große kommerzielle Anbieter mit genehmigten Modellen für die Nutzung des Pentagons durch eine Partnerschaft mit Palantir. Das gab ihnen einen asymmetrischen Vorteil: „der Autorisierte“ in einem Käufer mit riesigen Budgets zu sein.

Die politische Intervention verändert die Ausgangsbedingungen. Der Präsidialbefehl, die Nutzung von Anthropic einzustellen, und die Drohung, als Risiko für die Lieferkette eingestuft zu werden, erzeugen einen Nebeneffekt: Sie erhöhen die Opportunitätskosten für jeden Akteur, der sich auf kommerzieller Ebene mit Anthropic in verteidigungsrelevanten Bereichen zusammentut. Ich brauche nicht über den rechtlichen Ausgang zu spekulieren; es genügt, den Anreiz zu beobachten: der öffentliche Käufer versucht, den privaten Anbieter zu disziplinieren.

In diesem Kontext erscheint OpenAI als der natürliche Nachfolger, aber mit einem strategischen Unterschied: Sie treten in das Segment mit einer ausdrücklichen Botschaft des "gegenseitigen Respekts" in Bezug auf die Sicherheitsprinzipien von KI ein, einschließlich dem Verbot massenhafter Überwachung und der Forderung nach menschlicher Verantwortung beim Einsatz von Gewalt. Übersetzt in Verhandlungsbegriffe bedeutet dies, einen Vertrag zu schließen, bei dem das Unternehmen einen Teil der Kontrolle über das Produkt behält, während der Kunde die Kontrolle über die Mission behält, aber ohne die KI in ein unreguliertes System zu verwandeln.

Dieses Gleichgewicht hat eine wettbewerbsorientierte Lesart: Wenn die Regierung akzeptiert, dass OpenAI seine Sicherheitsstufe aufrechterhält, dann hört die "Kapazität" auf, das einzige Kriterium zu sein. Es wird wichtig, wer die Kapazität mit einem Kontrollrahmen anbieten kann, den der Käufer politisch tolerieren kann. In regulierten Märkten definiert diese Toleranz die tatsächlich zugängliche Marktgröße.

Die einfache Mathematik hinter dem "Safety Stack": die Marge schützen, indem der Umfang geschützt wird

Ein Finanzleiter sollte nicht im abstrakten Diskurs bleiben. Die operative Frage ist, welche Variablen kontrolliert werden sollen. Im Geschäft mit KI-Modellen werden die marginalen Kosten pro Nutzung durch den Rechenaufwand beeinflusst, und die Kosten für Qualität werden durch Sicherheit, Überwachung und Support bestimmt. Wenn der Kunde Ausnahmen verlangen und Ablehnungen aufheben kann, ergeben sich zwei Effekte:

1) Erhöhung der Unterstützungskosten: mehr Vorfälle, mehr menschliches Escalation, mehr Richtlinienüberprüfungen und mehr interne Audits.

2) Abwertung zukünftiger Verkäufe: ein einziger Vorfall kann Türen im Unternehmenssektor schließen, die ebenfalls gut bezahlen und nicht in Zusammenhang mit umstrittenen Nutzungen stehen möchten.

Aus dieser Logik heraus ist die Beibehaltung des "Safety Stack" ein Weg, einen Teil des Risikos in eine Regel des Produkts zu verwandeln. Es ist nicht Altruismus; es ist Kontrolle der Kosteneinstellungen. Und die Kontrolle von Variabilität ist im Wesentlichen Margenschutz.

Die Zahl von 200 Millionen Dollar des strittigen Vertrags mit Anthropic liefert auch eine Dimension. Ein solch Vertrag kann Infrastruktur, Sicherheit und engagierte Teams finanzieren. Aber es ist nur ein gutes Geschäft, wenn es nicht zu einem finanziellen Strudel aufgrund von Umfangsänderungen wird. Das Risiko von Regierungsverträgen ist nicht, dass sie wenig bezahlen; es ist, dass sie gut bezahlen, während sie erwarten, dass du wie ein traditioneller Rüstungsunternehmer agierst.

Die Bewegung von OpenAI deutet auf Lernbereitschaft hin: den Umfang des Einsatzes, die Kontrolle der Sicherheitsvorkehrungen und die Nichtverpflichtung zur Aufhebung von Ablehnungen von Anfang an zu verhandeln. Dieses "Nein", das schriftlich im Vertrag festgehalten ist, entspricht finanziell dem Festlegen von Grenzen für die variablen Kosten und die Reputationskosten.

Die Richtung ist klar: den Vertrag gewinnen, ohne die Kontrolle über das Produkt abzugeben

Diese Episode hinterlässt eine nützliche Botschaft für jeden CEO oder CFO, der kritische Technologien an große institutionelle Käufer verkauft. Die Verhandlung wird nicht nur durch Preis und Volumen definiert, sondern durch wer das System im Betrieb kontrolliert.

Anthropic verteidigte laut dem Bericht Linien, die jetzt mit einem Prozess zum geplanten Austritt aus dem Bundesdienst und der möglichen Einstufung als Risiko in Bezug auf die Lieferkette konfrontiert sind, die sie ebenfalls vor Gericht anfechten wollen. OpenAI hingegen positioniert sich, um den freien Raum zu erobern, versucht aber, eigene Kontrollen aufrechtzuerhalten und den Einsatz auf Kontexte zu beschränken, in denen die operative Komplexität beherrschbar ist.

Finanziell ist die Lektion klar. Ein großer Vertrag stärkt das Unternehmen nur, wenn er mit Grenzen verbunden ist, die die Marge schützen und die Kostenschwankungen reduzieren. Der ideale Vertrag ist nicht der, der am meisten Schlagzeilen macht, sondern der, der den Nutzungsrahmen definiert, Ausnahmen vermeidet und das Risiko in betriebliche Regeln umwandelt. Am Ende ist das Unternehmen, das die Kontrolle behält, dasjenige, das sich mit echten und wiederkehrenden Einnahmen finanzieren kann, denn das Geld des Kunden bleibt die einzige Validierung, die das Überleben und die Kontrolle des Unternehmens sichert.

Teilen
0 Stimmen
Stimmen Sie für diesen Artikel!

Kommentare

...

Das könnte Sie auch interessieren