Generative KI stößt an eine Grenze, die kein Manager sehen will

Generative KI stößt an eine Grenze, die kein Manager sehen will

Es gibt eine Wette, die sich in fast jedem Vorstand wiederholt, der seit zwei Jahren über künstliche Intelligenz spricht: dass die Technologie es jedem Fachmann ermöglichen wird, die Arbeit jedes anderen mit ausreichender Qualität zu erledigen, um eine Neuorganisation der Talente zu rechtfertigen. Eine Wette, die sich auf dem Papier gut anfühlt. Und die laut neuen experimentellen Erkenntnissen teilweise falsch ist – auf eine Art, die direkte Folgen für die Personalstrategie hat.

Valeria CruzValeria Cruz2. Mai 20268 Min
Teilen

Generative KI stößt an eine Grenze, die kein Führungskraft sehen will

Es gibt eine Wette, die sich in fast jedem Vorstand wiederholt, der seit zwei Jahren über künstliche Intelligenz spricht: dass die Technologie es jedem Fachmann ermöglichen wird, die Arbeit eines anderen zu erledigen – in einer Qualität, die ausreicht, um eine Neuorganisation des Talentpools zu rechtfertigen. Eine Wette, die sich auf dem Papier gut anfühlt. Und die, laut neuen experimentellen Erkenntnissen, in einer Weise teilweise falsch ist, die direkte Konsequenzen für die Personalstrategie hat.

Ein Feldexperiment, das bei IG, einem britischen Fintech-Unternehmen, durchgeführt wurde und von Forschern der Harvard Business School, der Stanford University und dem Stanford Digital Economy Lab analysiert wurde, stellte genau diese Hypothese auf die Probe. Die Ergebnisse offenbaren ein Muster, das Führungskräfte, die von einer vollständigen Austauschbarkeit ihrer Belegschaft ausgehen, sich nicht leisten können zu ignorieren.

Das Experiment, das die unsichtbare Kluft enthüllte

Das Design war bewusst einfach gehalten. Drei Gruppen von Mitarbeitern erhielten dieselbe Aufgabe: Zunächst sollten sie einen Artikel für die Unternehmenswebsite konzeptualisieren (Struktur, Schlüsselwörter, Kernpunkte); anschließend sollten sie den vollständigen Artikel ausführen. Die Gruppen entsprachen unterschiedlichen Wissensabständen: Web-Analysten, die gewohnt sind, solche Inhalte zu erstellen, Marketing-Spezialisten, die in angrenzenden Funktionen arbeiten, aber keine Artikel schreiben, und Technologie-Spezialisten (Datenwissenschaftler und Softwareentwickler) ohne Bezug zur Inhaltserstellung. Einige Teilnehmer hatten Zugang zu den generativen KI-Tools von IG; andere nicht.

Die Ergebnisse in der Konzeptualisierungsphase waren eindeutig. Ohne KI übertrafen die Web-Analysten die anderen beiden Gruppen deutlich. Mit KI produzierten alle drei Gruppen statistisch nicht unterscheidbare Konzeptualisierungen. Das Tool wirkte als perfekter Gleichmacher für abstrakte und strukturierte Arbeit, also jene, die einer vernünftigen Vorlage folgt, die selbst ein Nicht-Experte bewerten kann. Bis zu diesem Punkt erfüllte sich das Versprechen der Technologie.

In der Ausführungsphase änderte sich die Geschichte. Marketing-Spezialisten, die mit KI ausgestattet waren, schafften es, Artikel von vergleichbarer Qualität wie die der Web-Analysten zu produzieren. Technologie-Spezialisten mit Zugang zu genau denselben Tools konnten das nicht. Interviews nach dem Experiment legten den Mechanismus offen: Den Technologiefachleuten fehlte das mentale Modell, um die Qualität des generierten Outputs zu beurteilen. Ein Datenwissenschaftler entfernte die Handlungsaufforderungen, weil er sie für unnötig hielt. Ein anderer kürzte die Artikel unter die optimale SEO-Schwelle, weil er Kürze bevorzugte. Einer gab mit ungewöhnlicher Ehrlichkeit zu: „Ich habe Dinge zufällig hinzugefügt, damit es mehr nach Marketing aussah." Es war kein Mangel an technischer Kompetenz. Es war Domänenabstand.

Die Autoren bezeichneten dieses Phänomen als den „Wandeffekt der generativen KI": die Schwelle, ab der das Tool die Kluft zwischen Experte und Nicht-Experte nicht mehr überbrücken kann, egal wie ausgefeilt es ist.

Was die Wand darüber verrät, wie wir Wissen verwalten

Der unbequemste Befund liegt nicht in den Daten des Experiments. Er liegt in der Schlussfolgerung, die sich daraus für die organisationale Architektur ergibt: Viele Unternehmen haben jahrelang technische Fertigkeiten mit Domänenwissen verwechselt. Und die generative KI half ihnen, diese Verwechslung aufrechtzuerhalten.

Die Technologie-Spezialisten im Experiment scheiterten nicht, weil sie die Tools nicht bedienen konnten. Sie scheiterten, weil ihnen die Kriterien fehlten, um zu beurteilen, ob der Output gut war. Der Unterschied zwischen jemandem, der KI effektiv zur Erstellung von Marketinginhalten nutzt, und jemandem, der es nicht kann, liegt nicht in der Benutzeroberfläche oder im Prompt. Er liegt darin zu wissen, was einen Artikel ausmacht, der konvertiert, warum der „Verkaufston" einen Wert hat, welche Länge am besten auf Suchalgorithmen reagiert. Dieses Wissen lässt sich nicht in einem KI-Schulungssprint vermitteln.

Was das Experiment in organisatorischen Begriffen dokumentiert, ist, dass generative KI effektiv bei Aufgaben arbeitet, die einer Logik strukturierter Abstraktion folgen: skizzieren, klassifizieren, organisieren, Optionen innerhalb eines Rahmens generieren. Bei diesen Aufgaben kann der Input des Nutzers minimal sein, weil das Tool genug Struktur hat, um zu funktionieren. Hochwertige Ausführung hingegen erfordert das, was die Forscher als tacites Wissen bezeichnen: die Mikro-Urteile, die ein Fachmann automatisch über Ton, Schwerpunkt, Zielgruppe und strategische Absicht trifft und die unmöglich an ein Tool delegiert werden können, wenn der Nutzer sie nicht intern besitzt.

Dies hat eine direkte Implikation für die Art und Weise, wie Führungsteams die Rendite ihrer KI-Investitionen kalkulieren. Wenn ein Unternehmen ausgefeilte Tools einsetzt und erwartet, dass seine technische oder administrative Belegschaft Arbeit absorbieren kann, die früher Marketing-, Kommunikations- oder Designspezialisten gehörte, ist das wahrscheinliche Ergebnis keine Effizienz, sondern degradierter Output, den niemand in der Kette das Wissen hat zu erkennen. Die Kosten erscheinen nicht in einer unmittelbaren Produktivitätsmetrik. Sie tauchen sechs Monate später auf, wenn die Inhaltsqualität gesunken ist, das SEO sich verschlechtert hat und niemand genau sagen kann, wo das Problem entstanden ist.

Der Talentfehler, den Effizienz verbirgt

Es gibt eine zugrunde liegende organisationale Dynamik, die die Forschung nicht explizit benennt, die das Experiment aber präzise illustriert: die Tendenz von Führungskräften, Talentstrategien aus der Logik der Kostensenkung heraus zu gestalten, anstatt aus der Logik des Wissensabstands.

Wenn ein Unternehmen entscheidet, dass es mit KI einen Softwareentwickler zur Produktion von Marketinginhalten umsetzen kann, geht diese Entscheidung in der Regel nicht durch eine Analyse, wie weit die Domänenwissen beider Funktionen auseinanderliegt. Sie geht durch eine Tabellenkalkulation, die verfügbare Stunden zeigt, und ein Budget, das optimiert werden möchte. Das Problem ist nicht die finanzielle Logik; das Problem ist, dass die finanzielle Logik auf Austauschbarkeitsannahmen operiert, die das IG-Experiment gerade falsifiziert hat.

Die Autoren der Studie stellen eine Unterscheidung auf, die für Führungsteams nützlich ist: KI kann die Mobilität zwischen angrenzenden Funktionen erleichtern, wo eine gemeinsame Wissensbasis vorhanden ist, aber nicht zwischen weit voneinander entfernten Funktionen. Ein Marketing-Koordinator, der zur Inhaltserstellung wechselt, hat das konzeptionelle Gerüst, um den generierten Output zu bewerten und zu verfeinern. Ein Softwareentwickler, der denselben Schritt macht, hat das nicht, und die verfügbaren Tools vermitteln es ihm nicht. Dieser Unterschied sollte die Grundlage jeder Redeployment-Entscheidung sein, bevor sie zu einem sichtbaren Problem wird.

Die zweite, weniger offensichtliche Implikation betrifft den Bereich, in den Unternehmen ihre Ausbildungsbudgets investieren. Der dominierende Trend war es, Teams in der Nutzung von KI-Tools zu schulen: wie man Prompts strukturiert, wie man iteriert, wie man Ausgaben in Arbeitsabläufe integriert. Das ist notwendig, aber nicht ausreichend. Die Studie legt nahe, dass der eigentliche Engpass nicht die technische Kompetenz im Umgang mit dem Tool ist, sondern das Domänenwissen, das es ermöglicht zu beurteilen, ob der Output gut ist. In Ersteres zu investieren, ohne in Letzteres zu investieren, bedeutet, Geschwindigkeit ohne Richtung aufzubauen.

Die Studie eröffnet auch eine strukturellere Lesart: In dem Maße, in dem KI die Konzeptualisierung und Ideation demokratisiert, verlagert sich das Gewicht des Wertes zur hochwertigen Ausführung. Und diese Ausführung wird weiterhin eine Funktion des akkumulierten Wissens sein, nicht der Ausgefeiltheit der Benutzeroberfläche. Führungskräfte, die das früher verstehen, werden ihre Talentinvestitionen entsprechend umstrukturieren. Diejenigen, die es nicht verstehen, werden weiterhin die KI-Wirkung in Adoptionsmetriken messen, während der tatsächliche Output still und leise verfällt.

Die Reife eines Führungsteams misst sich unter anderem an seiner Fähigkeit, Organisationen aufzubauen, in denen Wissen bewusst fließt und in denen kein kritisches Ergebnis davon abhängt, dass eine einzige Person – oder ein einziges Tool – es trägt. Das erfordert eine ehrliche Bestandsaufnahme dessen, was jede Funktion weiß, wie weit sie von anderen entfernt ist und wie gut sie darauf vorbereitet ist, mit Systemen zusammenzuarbeiten, die das verstärken, was bereits vorhanden ist, aber nicht aus dem Nichts schaffen können, was nicht existiert. KMU und Großunternehmen, die diese Karte erstellen und danach handeln, werden keine einzelne Führungskraft benötigen, die sie trägt. Sie werden bereits das System aufgebaut haben, das sie von selbst skaliert.

Teilen

Das könnte Sie auch interessieren