Mehr KI-Agenten, mehr menschliche Arbeit: Die unerwartete Paradoxie
Es gibt ein Versprechen, das seit 2023 in fast jeder Produktpräsentation zur künstlichen Intelligenz zirkuliert: Setze genügend autonome Agenten ein, und deine Teams können sich endlich auf die wirklich wichtigen Arbeiten konzentrieren. Die Automatisierung würde den Rest erledigen. Das Problem mit diesem Versprechen ist, dass es annimmt, dass kognitive Arbeit ein fixiertes Volumen darstellt, das delegiert werden kann. Das ist jedoch nicht der Fall.
Aaron Levie, CEO von Box, formuliert es mit einer Klarheit, die nur wenige Stimmen der Branche gewagt haben: Die Orchestrierung mehrerer KI-Agenten reduziert die menschliche kognitive Belastung nicht, sie transformiert sie einfach. Wo früher Ausführungsarbeit geleistet wurde, gibt es jetzt Überwachungs-, Koordinations- und Entscheidungsarbeit für Systeme, die mit Geschwindigkeiten arbeiten, die das menschliche Gehirn nicht in Echtzeit nachvollziehen kann. Das Nettoergebnis ist nicht weniger Aufwand. Es ist ein anderer Aufwand, und in vielen Fällen sogar anstrengender.
Die Illusion des befreiten Managers
Wenn eine Organisation einen KI-Agenten einsetzt, um Dokumentenflüsse zu verwalten, einen weiteren, um Verträge zu analysieren, und einen dritten, um die Einhaltung von Vorschriften zu überwachen, sollte sich das Exekutivkomitee sofort die Frage stellen: Nicht wie viel Zeit jeder Agent einzeln spart, sondern wer die Koordination zwischen den dreien übernimmt, wenn ihre Ergebnisse sich widersprechen, wenn einer eine Anomalie feststellt, die die anderen beiden ignoriert haben, oder nach welchem menschlichen Kriterium entschieden wird, welcher recht hat.
Das ist keine technische Frage. Es ist eine Frage der Governance und Verantwortung liegt beim Menschen.
Das Muster, das Levie beschreibt, hat eine präzise Mechanik: Wenn die Anzahl der Agenten wächst, wächst die Komplexität ihrer Orchestrierung nicht linear. Zwei Agenten erfordern eine Überwachungsoberfläche. Fünf Agenten benötigen ein Protokoll. Zwanzig Agenten erfordern etwas, das sehr nach einer parallelen Organisationsstruktur aussieht, mit eigenen Hierarchien, Eskalationsregeln und Leistungskennzahlen. Jemand muss diese Struktur entwerfen und pflegen. Und wenn sie scheitert, muss jemand die Verantwortung übernehmen.
Die Unternehmen, die dies schmerzhaft feststellen, sind die, die Agenten unter dem Gesichtspunkt adoptiert haben, die Mitarbeiterzahl zu reduzieren, bevor sie verstanden haben, welche tatsächlichen Arbeiten sie eliminiert und welche neuen geschaffen haben. Sie kauften Automatisierung, im Glauben, sie kauften Einfachheit. Sie erhielten Skalierung mit eingebauter Komplexität.
Das, was automatisiert wurde, war nicht das Problem
Dies ist die Diagnose, die den Produktteams und den Ausschüssen für digitale Transformation am unangenehmsten ist: Die meisten Aufgaben, die KI-Agenten effizient ausführen, waren nicht die Aufgaben, die die kostspieligsten Engpässe in der Organisation erzeugten.
Die Agenten sind bemerkenswert gut im Verarbeiten von Volumen: Sie klassifizieren Dokumente, extrahieren strukturierte Daten und erstellen Entwürfe auf Basis bekannter Vorlagen. Diese Aufgaben sind messbar, wiederholbar und leicht zu bewerten. Sie sind in vielen Kontexten auch die Aufgaben, die die Mitarbeiter bereits schnell und fehlerarm erledigen konnten. Die Arbeit, die tatsächlich schöpferische Energie erfordert, die Urteil bei Unsicherheit, Verhandlung zwischen Interessengruppen oder Entscheidungen ohne klare Präzedenzfälle umfasst, kann nicht an einen Agenten delegiert werden. Und dennoch ist genau das die Arbeit, die sich vervielfacht, wenn es mehr Agenten zu beaufsichtigen gibt.
Das Unternehmen, das KI-Agenten engagiert, um seine besten Ausführer zu befreien, hat paradoxerweise diese Ausführer damit beschäftigt, Maschinen zu überwachen, anstatt Geschäftsprobleme zu lösen. Die Verlagerung findet statt, aber in die entgegengesetzte Richtung, als versprochen.
Das bedeutet nicht, dass die Einführung von Agenten eine strategische Fehlentscheidung ist. Es bedeutet, dass die Erfolgsmetrik von Anfang an falsch kalibriert war. Ein Unternehmen, das die Rendite seiner Agenten in eingesparten Arbeitsstunden misst, misst den falschen Indikator. Die relevante Metrik ist, wie viel kognitive Arbeit mit hohem Wert für die Menschen wieder freigeschaltet wurde, nicht wie viel Arbeit mit niedrigem Wert von Maschinen absorbiert wurde.
Die Arbeit, die niemand einstellen wollte
Ein Verhaltensmuster, das diese Situation klar offenbart, ist zu erkennen, dass Unternehmen bei der Einführung von KI-Agenten die Arbeit, die sie reduzieren möchten, operativ und wiederholbar ist. Die Arbeit, die sie tatsächlich benötigen und die niemand klar artikulieren konnte, bis das System versagt hat, ist die Arbeit, Kohärenz zwischen in Echtzeit verteilten Entscheidungen aufrechtzuerhalten.
Diese Arbeit hat in keinem Organigramm einen Namen. Sie ist nicht als spezifische Funktion budgetiert. Und dennoch, wenn eine Kette von Agenten hundert Mikrobeschlüsse pro Stunde im Namen des Unternehmens trifft, muss jemand sicherstellen, dass diese Entscheidungen kohärent sind, dass sie nicht der Geschäftspolitik widersprechen, dass sie die Organisation nicht regulatorischen Risiken aussetzen und dass, wenn das System einen Fehler macht, dieser Fehler sich nicht hundertmal verbreitet, bevor ihn jemand entdeckt.
Die Organisationen, die dies am besten meistern, sind nicht die, die zuerst die meisten Agenten eingesetzt haben. Es sind die, die Zeit investiert haben, um zu kartieren, welche Entscheidungen autonom sein können und welche menschliches Eingreifen erfordern, bevor sie automatisiert werden, und nicht danach. Diese Unterscheidung klingt obvious, wenn sie so geschrieben ist. In der Praxis wird diese Unterscheidung jedoch systematisch aufgeschoben, unter dem Druck von Annahmezyklen und öffentlichen Verpflichtungen zur digitalen Transformation.
Levie argumentiert nicht gegen KI-Agenten. Er weist darauf hin, dass das Versprechen der kognitiven Befreiung ein Arbeitsmodell zugrunde legt, das nicht passt zu der Realität, wie Organisationen mit echten Verantwortlichkeiten operieren. Kognitive Arbeit verschwindet nicht, wenn die Ausführung automatisiert wird: Sie wandert nach oben in der Entscheidungskette, wo die Konsequenzen eines Fehlers größer sind und die Zeiträume zur Korrektur kürzer sind.
Die wahre Arbeit, für die Unternehmen einstellen
Der Erfolg oder Misserfolg der Strategien für KI-Agenten in den kommenden zwei Jahren wird nicht davon abhängen, wie viele Agenten ein Unternehmen bereitstellen kann oder von der technischen Raffinesse ihrer Architektur. Er wird davon abhängen, ob die Führungsteams rechtzeitig verstanden haben, dass die Organisationen nicht die Automatisierung von Aufgaben benötigten, sondern die Fähigkeit, kohärente Entscheidungen schneller und mit weniger internen Reibungen zu treffen.
Das ist die tiefere Notwendigkeit, die hinter der massenhaften Einführung von Agenten steht. Es geht nicht um operationale Effizienz. Es geht um Entscheidungsgeschwindigkeit mit Kontrolle. Und dieses Problem kann kein Agent allein lösen. Das löst eine Organisationsarchitektur, die weiß, was delegiert werden kann, was behalten wird und wer verantwortlich ist, wenn das autonome System den falschen Weg einschlägt.
Die Unternehmen, die Agenten einstellen, um das erste Problem, die Effizienz, zu lösen, und das zweite, die Governance verteilter Entscheidungen, vernachlässigen, werden feststellen, dass sie ihre Fähigkeit zur Fehlermarginalisierung skaliert haben, bevor sie ihre Fähigkeit zur Korrektur skaliert haben.










