Die am besten bezahlten Jobs sind am stärksten von KI betroffen. Die Führungskräfte haben das noch nicht verarbeitet.
Am 15. März 2026 veröffentlichte Andrej Karpathy — Mitbegründer von OpenAI und ehemaliger KI-Forscher bei Tesla — ein Projekt, das er als „Zwei-Stunden-Arbeit an einem Samstagmorgen" beschrieb: eine interaktive Karte, die 342 Berufe des US-Arbeitsministeriums hinsichtlich ihrer Anfälligkeit für KI bewertete. Die Skala reichte von 0 bis 10. Physische Berufe wie Dachdecker oder Bauhelfer lagen bei etwa 0 oder 1. Softwareentwickler, Finanzanalysten, Anwälte, Schriftsteller und Mathematiker bewegten sich zwischen 9 und 10. Das Projekt wurde Stunden später wieder gelöscht, wobei Karpathy angab, es sei „völlig missverstanden" worden. Doch die Karte war bereits im Umlauf, und die hinterlassenen Daten verschwanden nicht mit ihr.
Die zentrale Erkenntnis ist nicht, dass KI Arbeitsplätze bedroht. Das wussten wir bereits. Was Karpathy sichtbar machte, ist die direkte Korrelation zwischen Gehalt und Verwundbarkeit: Jobs, die über 100.000 Dollar jährlich generieren, hatten im Durchschnitt eine Expositionsbewertung von 6,7, die höchste unter allen analysierten Gehaltsklassen. Jobs mit einem Einkommen von weniger als 35.000 Dollar lagen im Schnitt bei 3,4. Etwa 60 Millionen amerikanische Jobs wurden als hoch exponiert markiert, mit jährlichen Gesamtgehältern nahe 3,7 Billionen Dollar.
Das ist keine Personalstatistik. Es ist ein Signal der Organisationsarchitektur.
Die Karte, die niemand laut lesen wollte
Das erste, was man über Karpathys Analyse verstehen muss, ist, dass sie nicht als Urteil gedacht war. Er selbst beschrieb es als ein exploratives Werkzeug, inspiriert von einem Buch, das er gerade las, um anderen zu helfen, BLS-Daten anders zu visualisieren. Es war kein Prognosemodell oder ein Fahrplan für Massenentlassungen. Es war, in seinen Worten, ein Wochenendexperiment.
Die Reaktion, die es auslöste, war jedoch unverhältnismäßig, da es etwas ansprach, das Organisationen seit Jahren vermeiden, präzise zu benennen: die Funktionen mit der höchsten intellektuellen Hierarchie und Vergütung sind genau die, die von großen Sprachmodellen am leichtesten repliziert werden können. Datenanalyse, strukturierte Textverfassung, rechtliche Überprüfung, Finanzmodellierung, Code-Generierung. All dies sind Tätigkeiten, die bildschirmbasiert, sequenziell, dokumentiert und trainierbar sind.
Elon Musk reagierte am selben Tag auf X mit seiner gewöhnlichen Vorhersage: „Alle Jobs werden optional sein. Es wird ein hohes universelles Einkommen geben." Dieser Satz ist bekannt. Musk hat ihn in verschiedenen Szenarien wiederholt, einschließlich eines Beitrags im Dezember 2025 über robotergestützte und KI-gestützte Fülle. Was strategisch relevant ist, ist nicht, ob Musk mit seiner utopischen Vision recht hat, sondern dass seine Reaktion auf Karpathys Karte sofort und ohne Nuancen war, was mehr über den Status der Führungsdebatte aussagt als über die KI selbst: Die Führungsebene bewegt sich zwischen dem Fatalismus „Alles wird sich ändern" und der Negation „Das betrifft unser Kerngeschäft nicht".
Keine der beiden Positionen ist strategisch. Beide sind Formen der Entscheidungsunfähigkeit.
Das Problem ist nicht die Automatisierung. Es ist die selektive Paralyse.
Die Studie von Anthropic, die Anfang März 2026 veröffentlicht wurde — Wochen vor Karpathys Karte — lieferte eine zusätzliche Dimension, die viele Medien übersehen haben: Die am stärksten von KI betroffenen Arbeiter sind tendenziell älter, besser ausgebildet, besser bezahlt und in vielen Branchen Frauen. Obwohl seit Ende 2022 kein systematischer Anstieg der Arbeitslosigkeit verzeichnet wurde, gab es eine Verlangsamung bei der Einstellung junger Arbeiter in stark exponierten Rollen. Es handelt sich nicht um Massenentlassungen. Es ist eine stille Substitution durch das Ausbleiben von Nachbesetzungen.
Diese Unterscheidung ist bedeutender, als es scheint. Ein Unternehmen, das keine Junior-Analysten mehr einstellt, weil seine KI-Modelle dieselben Berichte verarbeiten, führt keinen sichtbaren Abbau durch. Es stellt seine Talentpyramide um, ohne es als Politik zu deklarieren. Und das hat mittelfristige organisatorische Folgen, die von wenigen Vorständen gemessen werden: Erosion des internen Talentpools, Konzentration des Wissens in den Senior-Ebenen ohne geschulten Nachwuchs und zunehmende Abhängigkeit von Werkzeugen, die kein internes Team tiefgreifend versteht.
Citadel Securities meldete im Jahr 2026 ein Wachstum von 11 % bei der Nachfrage nach Software-Ingenieuren im Vergleich zum Vorjahr, was darauf hindeutet, dass die Automatisierung nicht sofort spezifische Arbeitsmärkte zum Einsturz bringt. Aber diese Zahl existiert zusammen mit den Daten von Anthropic ohne echte Widersprüche: Die Nachfrage nach Senior-Profilen bleibt hoch, während die Ausbildung neuer Generationen in diesen Rollen sich verlangsamt. Der Markt kauft weiterhin das fertige Produkt, investiert jedoch nicht mehr in die Lieferkette, die es produziert.
Für einen CFO, der auf das Quartal schaut, scheint das Effizienz zu sein. Für einen CEO, der das Unternehmen in fünf Jahren sieht, ist es eine Form der Kannibalisierung zukünftiger Fähigkeiten.
Was die Karte von Karpathy heute vom C-Level verlangt
Es gibt eine verständliche Versuchung, die Analyse zur KI-Exposition als ein Talent- oder Technologiethema zu lesen. Das ist es nicht. Es ist ein Problem der Ressourcenzuteilung und der Festlegung von Wetten. Wenn die Positionen, die das größte intellektuelle Kapital einer Organisation bündeln, gleichzeitig die sind, die von Sprachmodellen am leichtesten replizierbar sind, lautet die Frage, die das Management beantworten muss, nicht „Wann automatisieren wir?", sondern „In welchen Dimensionen der menschlichen Arbeit werden wir Wettbewerbsvorteile aufbauen, die nicht automatisierbar sind?".
Das ist eine Entscheidung, die reales Opfer erfordert. Sie erfordert, in Prozesse, die die KI kostengünstig ausführen kann, weniger zu investieren und diese Ressourcen auf Fähigkeiten zu lenken, die die aktuellen Modelle nicht erreichen: Urteilsvermögen bei erheblicher Ungewissheit, über Jahre aufgebaute Beziehungs- und Vertrauenswürdigkeit, Führung in Kontexten hoher Unsicherheit, Design von Rahmenbedingungen, für die die KI-Modelle nicht über genügend Trainingsdaten verfügen. Das sind keine romantischen Funktionen. Es sind Funktionen, die kein Sprachmodell von 2026 konstant ohne signifikante menschliche Überwachung ausführt.
Organisationen, die weiterhin ihr bestes Talent für Aufgaben zuweisen, die ein Modell in Sekunden erledigen kann, verhalten sich nicht klug. Sie zahlen strategische Kosten dafür, was sich zu einer Ware entwickelt. Und der Markt wird schließlich diese Differenz anpassen, mit oder ohne Vorwarnung.
Die durchschnittliche Exposition in allen analysierten Jobs betrug 5,3 von 10. Es ist kein Apokalypse, aber auch kein komfortabler Spielraum. Es ist das Signal eines Übergangs, der bereits begonnen hat und nicht wartet, bis der nächste Haushaltszyklus es berücksichtigt.
Die Disziplin, die die Organisationen trennt, die diesen Übergang erfolgreich navigieren, von denen, die darunter leiden, ist nicht die Geschwindigkeit der technologischen Einführung. Es ist die Klarheit, entschieden und ohne Ambiguität zu entscheiden, welche Funktionen sie als Quelle differenzierender Vorteile schützen und welche sie absichtlich der Automatisierung überlassen werden. Beides halbherzig zu tun, aus Angst vor den Auswirkungen einer Wahl, ist die einzige Wette, die Irrelevanz garantiert.









