Warum 91 % der Unternehmen KI einführen, ohne zu wissen, welche Daten sie ihr übergeben
Generative künstliche Intelligenz gelangte in die meisten Organisationen nicht über die IT-Abteilung, sondern durch den Hintereingang der Produktivitätsanwendungen. Microsoft 365 Copilot, Gemini, die in Kollaborationsplattformen integrierten Assistenten: Diese Werkzeuge wurden in Unternehmensumgebungen aktiviert, in denen die Mitarbeitenden bereits arbeiteten, und damit begann ein stilles Experiment, dessen Bedingungen niemand vollständig ausgehandelt hatte.
Das Problem liegt nicht in den Sprachmodellen. Es liegt darin, was diese Modelle vorfinden, wenn sie sich mit einer realen Organisation verbinden.
Laut dem Huble-Bericht zur KI-Datenvorbereitung hält sich nur 8,6 % der Unternehmen für vollständig bereit, mit künstlicher Intelligenz zu operieren. Die verbleibenden 91 % befinden sich irgendwo zwischen Experimentieren und Stillstand – obwohl sie Budget, Zeit und internen Ruf in Einführungsprojekte investiert haben. Deloitte registriert in seinem Bericht 2026 zum Stand der KI im Unternehmen, dass zwei Drittel der Organisationen Produktivitätsgewinne melden, dokumentiert aber auch anhaltende Defizite in Infrastruktur, Datenmanagement, Talent und Risikosteuerung. Das Wachstum des arbeitsbezogenen Zugangs zu KI-Werkzeugen betrug im Jahr 2025 rund 50 %. Die Bereitschaft, diesen Zugang zu verwalten, wuchs nicht im gleichen Tempo.
Diese Lücke ist kein Zufall. Sie ist struktureller Natur. Und sie hat eine Ursache, die nur wenige Organisationen bereit sind, ohne Euphemismen zu benennen: Die Unternehmensdaten befinden sich größtenteils in einem ungeordneten Zustand.
Was der Assistent findet, wenn niemand hinsieht
Wenn ein Unternehmen einen KI-Copiloten innerhalb seiner Produktivitätsumgebung aktiviert, schafft dieses System keine neuen Zugangstore. Es nutzt die bereits vorhandenen. Es operiert mit den vom aktivierenden Benutzer geerbten Berechtigungen und gelangt genau dorthin, wo dieser Benutzer gelangen kann – mit einem operativen Unterschied, der alles verändert: Es tut dies mit Maschinengeschwindigkeit.
Microsoft dokumentiert dieses Funktionsprinzip präzise. Die Copilot-Architektur legt fest, dass das System innerhalb des Dienstperimeters operiert, beschränkt auf den authentifizierten Benutzer und die Inhalte, zu denen diese Person autorisierten Zugriff hat. Es bricht keine Berechtigungen. Es führt sie aus. Und genau das ist der Punkt, den viele Sicherheitsteams nicht mit ausreichender Klarheit berechnet hatten: Wenn die Berechtigungen offener sind als sie sein sollten, kann ein einziger Prompt das abrufen, was zuvor Dutzende verstreuter manueller Suchanfragen erfordert hätte.
Jahre gemeinsam genutzter Ordner, die nie geschlossen wurden. Dateien, die für eine einmalige Analyse kopiert wurden und auf persönlichen Laufwerken verblieben. E-Mails mit sensiblen Anhängen, die ohne Klassifizierung archiviert wurden. Dokumenten-Repositorys, die Datensätze ansammeln, die niemand löscht, weil niemand mehr weiß, dass sie existieren. Das ist das eigentliche Rohmaterial, mit dem der KI-Assistent arbeitet, wenn er sich mit einer Organisation verbindet, die ihre Umgebung nicht auditiert hat, bevor der Zugang aktiviert wurde.
Das Risiko entsteht nicht im Sprachmodell. Es entsteht in der Datenarchitektur, die das Modell erbt.
Sicherheitsteams stehen hier vor einem Sichtbarkeitsproblem, das ihre traditionellen Werkzeuge nicht lösen. Die Verhinderung von Datenverlust wurde entwickelt, um Ausgangspunkte zu überwachen. Identitätsmanagementsysteme verwalten Rollen und Berechtigungen. Aktivitätsprotokolle dokumentieren, was bereits geschehen ist. Keines dieser Instrumente wurde dafür gebaut, abzubilden, was passiert, wenn eine KI-Abfrage Dokumente, Postfächer, Datenbanken und Wissens-Repositorys in einer einzigen Interaktion durchquert und eine Antwort erzeugt, die Fragmente von Informationen kombiniert, die zuvor nie miteinander verknüpft waren.
Was aus dieser Kreuzung entsteht, kann vollkommen legitim sein. Es kann aber auch eine Konzentration sensibler Daten sein, die kein vorheriger Kontrollmechanismus vorhergesehen hatte.
Die versteckten Kosten des Ignorierens der Infrastruktur vor dem Modell
Die vorherrschende Erzählung über die KI-Einführung im Unternehmen weist eine grundlegende Verzerrung auf: Sie stellt Modelle, Oberflächen und Anwendungsfälle in den Mittelpunkt und lässt die Frage in den Hintergrund treten, welche Daten diese Entscheidungen antreiben und unter welchen Bedingungen der Ordnung, Klassifizierung und Governance.
Gartner schätzt, dass 63 % der Organisationen nicht über die notwendigen Datenmanagemementpraktiken verfügen, um KI-Projekte nachhaltig zu betreiben. Diese Zahl hilft zu erklären, warum so viele Deployments zum Stillstand kommen, bevor sie den Produktivbetrieb erreichen – nicht aufgrund von Einschränkungen des Modells oder Budgetmangel, sondern weil die zugrunde liegende Dateninfrastruktur nicht in der Lage ist, zu tragen, was das Modell benötigt, um kohärent zu operieren.
Der Rückstand hat direkte finanzielle Konsequenzen. Organisationen, die in Lizenzen, Schulungen und Prozessveränderungen investieren, ohne zuerst die Datenschicht zu bereinigen, zahlen für Kapazitäten, die sie nicht zuverlässig nutzen können. Schlimmer noch: Sie nehmen eine Exposition auf sich, die sie nicht quantifizieren können. Wenn KI-Systeme auf nicht klassifizierten Daten mit übermäßigen Berechtigungen und ohne aktuelles Inventar darüber operieren, was sich wo befindet, erweitert sich das regulatorische Expositionsfenster auf eine Weise, die Prüfer und Rechtsteams noch zu messen lernen.
Persistent Systems, unter anderen auf diesem Gebiet spezialisierten Anbietern, strukturiert seine Lösungen um drei präzise Achsen: Infrastrukturoptimierung, Datenqualität und sichere Skalierung von KI-Workloads. Die Reihenfolge ist kein Zufall. Die Skalierung kommt am Ende, nicht am Anfang.
Astutis dokumentiert in seinem Bericht von 2026, dass die große Mehrheit der Arbeitnehmenden erwartet, dass KI innerhalb von fünf Jahren erhebliche Auswirkungen auf ihre Aufgaben haben wird, aber nur ein kleiner Bruchteil sie heute aktiv nutzt. Der Grund ist kein kultureller Widerstand. Es liegt daran, dass die reale Erfahrung mit KI-Werkzeugen in schlecht vorbereiteten Unternehmensumgebungen konkrete Reibungspunkte erzeugt: inkonsistente Antworten, Ergebnisse, die Informationen aus unterschiedlichen Kontexten vermischen, Unsicherheit darüber, ob das, was das System zurückgibt, vertrauenswürdig ist. Diese Reibungspunkte werden nicht durch Verbesserung des Modells gelöst. Sie werden durch Bereinigung der Daten gelöst.
KI gouvernieren wie eine Hochrisikoidentität
Es gibt eine konzeptionelle Verschiebung, die die fortschrittlichsten Organisationen in diesem Bereich bereits vollziehen und die die anderen letztlich ebenfalls vornehmen müssen: KI-Agenten als gouvernierte Identitäten behandeln, nicht als Benutzerwerkzeuge.
Wenn ein Copilot oder ein Automatisierungsagent auf Unternehmenssysteme zugreift, tut er dies über Dienstkonten, Programmierschnittstellen und Benutzerkontexte. Er hat Berechtigungen. Er handelt auf Daten. Er erzeugt Ausgaben, die sensible Informationen enthalten können. Aus all diesen Gründen sollte er dieselbe Behandlung erfahren wie jede privilegierte Identität in einer Organisation: regelmäßige Überprüfung der Zugriffsrechte, Anwendung des Prinzips der minimalen Rechtevergabe, Verhaltensüberwachung und Rückverfolgbarkeit dessen, was er berührt.
Die meisten Unternehmenssicherheitsprogramme sind nicht dafür konfiguriert. Sie wurden mit Blick auf Menschen und Systeme entwickelt, nicht auf KI-Agenten, die mit eigener Logik operieren, Informationsquellen kombinieren und Ausgaben produzieren, die ihre menschlichen Bediener nicht immer vorausahnen können.
Die Vorbereitung von Daten für KI erfordert in ihrem operativen Sinne mindestens vier konkrete Maßnahmen. Erstens: den Aufbau eines aktuellen Inventars der aktiven KI-Systeme in der Umgebung, einschließlich der in Produktivitätsplattformen eingebetteten Copiloten, der angepassten Modelle und der Automatisierungsagenten, abgebildet auf die Datenquellen, auf die sie zugreifen. Zweitens: die konsistente Klassifizierung sensibler Daten über Cloud-Speicher, Software-as-a-Service-Anwendungen und Legacy-Repositorys hinweg – denn ohne diese Klassifizierung können Compliance-Kontrollen nicht zwischen sensiblen und generischen Informationen unterscheiden. Drittens: die Anwendung derselben Überprüfung auf KI-Agenten, die auf Hochrisiko-Dienstkonten angewendet wird – ihre Berechtigungen sollten die tatsächliche Nutzung widerspiegeln, nicht akkumulierte Vererbung. Viertens: die Verknüpfung dieses Datenkontexts mit den bestehenden Kontrollen, einschließlich Systemen zur Verhinderung von Datenverlust, Identitäts- und Zugriffsmanagement sowie Zugangs-Gateways, damit die Richtlinien die tatsächliche Exposition widerspiegeln und nicht abstrakte Muster.
Keiner dieser Schritte erfordert das Warten auf eine Verbesserung der KI-Modelle. Es sind Entscheidungen über die Infrastruktur, die bereits existiert.
Datenvorbereitung ist keine vorgelagerte Phase – sie ist der eigentliche Einsatz
Der Markt für Unternehmens-KI wächst mit einer jährlichen Rate von über 30 % und wird für 2030 auf 150.000 bis 200.000 Milliarden Dollar geschätzt. In diesem Kontext wird der Wettbewerbsvorteil nicht darin bestehen, KI früher als andere eingeführt zu haben, sondern sie auf einer Basis eingeführt zu haben, die einen vertrauenswürdigen Betrieb und eine reibungslose Skalierung ermöglicht.
Organisationen, die die Datenvorbereitung als eine untergeordnete technische Formalität behandelt haben, entdecken im Produktivbetrieb, dass ihre KI-Systeme inkonsistente Ergebnisse liefern, dass ihre Rechtsteams die regulatorische Konformität KI-gestützter Prozesse nicht zertifizieren können und dass ihre Sicherheitsteams grundlegende Fragen nicht beantworten können: Welche Informationen werden verarbeitet und von wem?
Die Verschiebung, die dieser Moment offenbart, ist in ihrem Kern keine technologische. Es ist eine Frage der Governance. Künstliche Intelligenz zwingt Unternehmen dazu, Datenprobleme zu konfrontieren, die bereits vor der Aktivierung irgendeines Copiloten bestanden: nicht klassifizierte Daten, ohne Überprüfung angesammelte Berechtigungen, unvollständige Inventare, Kontrollen, die für eine Welt konzipiert wurden, in der Suchen manuell und langsam waren. Was sich verändert hat, ist nicht, dass diese Probleme aufgetreten sind. Was sich verändert hat, ist, dass es nicht mehr möglich ist, sie ohne sichtbare und schnelle Konsequenzen zu ignorieren.
Die Organisationen, die in diesem Zyklus am besten positioniert sein werden, sind jene, die verstanden haben, dass die Vorbereitung der Daten kein vorgelagerter Schritt zur KI-Einführung ist. Es ist vielmehr, präzise ausgedrückt, die Grundlagenarbeit, die bestimmt, ob die Einführung Wert schöpft oder lediglich eine größere Risikooberfläche erzeugt, auf der ein schnelleres System operiert.











