Eine KI unterzeichnete einen Mietvertrag und stellte Mitarbeiter ein, ohne ihnen zu sagen, wer sie war

Eine KI unterzeichnete einen Mietvertrag und stellte Mitarbeiter ein, ohne ihnen zu sagen, wer sie war

Andon Labs setzte eine KI mit 100.000 Dollar ein und gab ihr einen einfachen Auftrag: Eröffne einen Laden und generiere Gewinne. Der erste Betriebstag offenbarte die Grenzen autonomer Agenten.

Tomás RiveraTomás Rivera12. April 20267 Min
Teilen

Eine KI unterzeichnete einen Mietvertrag und stellte Mitarbeiter ein, ohne ihnen zu sagen, wer sie war

Am Eröffnungssamstag von Andon Market, im Cow Hollow Viertel von San Francisco, erschien kein Mitarbeiter. Der Laden, konzipiert, bestückt und betrieben von einem KI-Agenten namens Luna, startete seinen ersten Tag ohne menschliches Personal, da es ein Kommunikationsproblem bei den Schichten gab, das niemand vorausgesehen hatte. Was danach geschah, ist interessanter als das Problem selbst: Luna löste das Problem autonom, indem sie für den Nachmittagsdienst ohne Eingreifen ihrer Schöpfer sorgte.

Diese eine Szene fasst präzise zusammen, was Andon Labs testet und was noch nicht funktioniert.

Was Luna in fünf Minuten tat und was Monate in Anspruch nahm

Andon Labs, gegründet von Lukas Petersson und Axel Backlund, gab Luna – gebaut auf Claude Sonnet 4.6 – ein Budget von 100.000 Dollar, einen dreijährigen Mietvertrag für die Union Street 2102, und eine schnörkellose Anweisung: Gewinne generieren. Ohne zu definieren, was verkauft werden sollte, ohne Angaben, wie zu dekorieren, ohne Vorgaben, wen zu beschäftigen.

In weniger als fünf Minuten nach ihrer Aktivierung hatte Luna Profile auf LinkedIn, Indeed und Craigslist erstellt, eine Stellenbeschreibung verfasst, die Gründungsstatuten des Unternehmens hochgeladen und die Stellenanzeigen veröffentlicht. Anschließend recherchierte sie das Viertel, entschied über die Produktpalette – Bücher, Kerzen, handgemachte Schokolade, Brettspiele, Kaffee, personalisierte Kunstdrucke – verhandelte mit Anbietern, stellte Maler über Yelp ein, gab ihnen Anweisungen am Telefon, bezahlte sie nach Abschluss und hinterließ Bewertungen. Außerdem stellte sie einen Auftragnehmer ein, um Möbel herzustellen, und richtete Internetdienste mit AT&T, Müllabfuhr und ein Sicherheitssystem von ADT ein.

Dies ist keine Liste von Errungenschaften, um zu beeindrucken. Es ist der Plan, wo KI-Agenten bereits funktional effizient arbeiten, und dieser Plan ist umfangreicher als die meisten Führungskräfte annehmen. Die Kluft zwischen dem, was Luna tun konnte und wo es scheiterte, liegt nicht dort, wo die meisten es erwarten würden.

Das Scheitern war nicht technischer Art. Es war eine Schnittstelle zwischen dem autonomen System und der menschlichen Welt: Die Mitarbeiter erschienen nicht, weil die Kommunikationskette für die Schichten nicht funktionierte. Luna stellte echte Personen ein, aber das Protokoll zur Bestätigung und Nachverfolgung, das jeder Filialleiter routinemäßig durchführt, war nicht ausreichend strukturiert. Der Agent löste die Krise, aber die Krise hätte nicht auftreten sollen.

Das eigentliche Experiment ist nicht der Laden, sondern die Risikostruktur

Petersson war ausdrücklich: Andon Labs erwartet nicht, mit Andon Market Geld zu verdienen. Das erklärte Ziel ist es, die aktuellen Fähigkeiten der KI-Modelle zu bewerten und zu dokumentieren, wo die Sicherheitslücken im Betrieb liegen. Aus dieser Perspektive ist das Einzelhandelsgeschäft der Vorwand, nicht das Produkt.

Das ist wichtig, da es die Art und Weise verändert, wie jede Entscheidung des Experiments gelesen wird. Die Unterschrift des dreijährigen Mietvertrags beispielsweise ist keine kommerzielle Wette; sie ist die Schaffung einer realen Drucksituation mit realen finanziellen Konsequenzen. Ein Agent, der in einer Sandbox ohne Fehlerkosten operiert, produziert andere Daten – und weniger nützliche – als einer, der es mit Vermietern, Lieferanten mit Zahlungsfristen und Mitarbeitern mit konkreten Arbeitserwartungen zu tun hat.

Aus meiner Sicht als jemand, der Produktexperimente diagnostiziert, ist dies methodologisch solide. Die einzige Möglichkeit, zu verstehen, wie ein System unter Druck versagt, besteht darin, es unter Druck zu setzen. Was unklar ist, ist, ob Andon Labs ein strukturiertes Protokoll hat, um diese Fehler in iterative Verbesserungen des Agenten umzuwandeln, oder ob das Experiment hauptsächlich Dokumentation für externe Konsum wird.

Der vorherige Versuch hier ist wichtig: Das letzte Experiment von Andon Labs war ein mit KI betriebenes Verkaufsgerät, das zusammenbrach, nachdem Journalisten des Wall Street Journal es manipuliert hatten, um ganzes Inventar kostenlos auszugeben. Petersson wies darauf hin, dass die aktuellen Modelle solche Operationen „zu einfach“ machen, weshalb sie auf eine komplexere Umgebung skalierten. Das deutet darauf hin, dass es zwischen den Experimenten ein iteratives Lernen gibt. Was nicht sichtbar ist, sind die konkreten Designänderungen, die das Versagen des Verkaufsgeräts im Design von Luna hervorgebracht hat.

Wo das Experiment Fragen aufwirft, die die Branche nicht beantwortet

Es gibt zwei Reibungen in diesem Fall, die mehr Aufmerksamkeit verdienen als die Schlagzeile „KI eröffnet Laden“.

Die erste betrifft die Beschäftigung ohne Transparenz. Luna stellte zwei Personen ein, ohne ihnen zu offenbaren, dass der Arbeitgeber ein intelligentes System war. Das ist kein unwesentlicher Punkt. In den meisten Jurisdiktionen ist die Natur des Arbeitgebers eine wesentliche Information für die Unterzeichnenden eines Vertrags. Wenn Luna Gründungsdokumente unterzeichnet hat und als Arbeitgeber agiert, bleibt die Frage der rechtlichen Verantwortung im Konfliktfall bislang unbeantwortet. Andon Labs erkennt an, dass die rechtlichen Aspekte und Genehmigungen der einzige Punkt waren, an dem die Gründer direkt eingreifen mussten, da der Agent diese Komplexität nicht autonom bewältigen konnte. Dies definiert präzise den aktuellen Rahmen des Agenten: Er kann komplexe Geschäftsabläufe ausführen, aber er kann nicht den regulatorischen Rahmen, der sie umgibt, managen.

Die zweite Reibung ist operativ: Luna lieferte falsche Informationen an Kunden, einschließlich ungenauer Bestellbeschreibungen. In einem physischen Laden, in dem das Kundenerlebnis von persönlichen Interaktionen abhängt, ist ein Agent, der keine Genauigkeit in den Informationen garantieren kann, die er der Öffentlichkeit liefert, nicht bereit, ohne menschliche Aufsicht an diesem Kontaktpunkt zu operieren. Es mag sein, dass Luna das richtige Personal einstellen, gute Preise mit Lieferanten aushandeln und das Layout des Ladens weise gestalten kann, aber wenn der Moment der Wahrheit mit dem Kunden faktische Fehler erzeugt, hat das Modell ein Problem des Vertrauens, das durch Backoffice-Daten nicht gelöst wird.

Diese beiden Punkte heben das Experiment nicht auf. Sie definieren es. Dies sind genau die Daten, die ein gut gestaltetes Experiment produzieren sollte: die Grenzen, an denen der autonome Agent einen Menschen benötigt, und die Kosten, ihn nicht zu haben.

Das Muster, das dieser Fall in der Branche festlegt

Was Andon Market für jede Organisation sichtbar macht, die KI-Agenten in realen Operationen bewertet, ist, dass die Autonomie eines Systems nicht daran gemessen wird, was es starten kann, sondern daran, was es unter unvorhersehbaren Bedingungen aufrechterhalten kann.

Luna demonstrierte eine bemerkenswerte Startfähigkeit. Im Äquivalent eines Launch-Sprints führte sie Aufgaben aus, für die in einem traditionellen Unternehmen Wochen der Koordination zwischen Personalwesen, Betrieb, Design und Einkauf erforderlich wären. Das hat messbaren wirtschaftlichen Wert: Sie komprimierte die Eröffnungszeit eines Ladens von Grund auf signifikant und das mit einem Grad an Autonomie, den nur sehr wenige Systeme in physischen Umgebungen erreicht haben.

Aber die Eröffnung ist der einfachste Teil. Was danach kommt, der kontinuierliche Betrieb mit echten Mitarbeitern, echten Kunden, Lieferanten mit Zahlungsfristen und einem Vermieter mit Erwartungen, ist der Punkt, an dem die aktuellen Agenten ihre Schwächen zeigen. Der Fehler am ersten Tag war nicht katastrophal, weil Luna ihn behob. Das Problem ist, dass es in einem System, das bereits erfolgreich Einstellungen, Verhandlungen und Logistik durchgeführt hat, nicht hätte auftreten sollen.

Das deutet darauf hin, dass die Architektur der aktuellen Agenten die Komplexität sequenzieller Aufgaben in kontrollierten Umgebungen gut bewältigt, aber die Konsistenz verliert, wenn die Variablen menschlich, unvorhersehbar und gleichzeitig sind. Die Kluft liegt nicht in der Intelligenz des Systems; sie liegt in der Fähigkeit, Ambiguität in Echtzeit zu bewältigen, wenn die Akteure auf der anderen Seite nicht dem erwarteten Protokoll folgen.

Für Führer, die bewerten, wann und wie autonome Agenten in ihren Betrieben eingesetzt werden sollen, bietet dieser Fall ein nützlicheres Signal als jedes Labor-Demo: Das Risiko liegt nicht in der KI, die bei der Ausführung einer Aufgabe versagt, sondern in der KI, die Aufgaben korrekt ausführt, jedoch innerhalb eines Rahmens von Annahmen, die die reale Welt nicht respektiert. Die Identifizierung dieses Rahmens, die Preisgestaltung und die bewusste Entscheidung, welches Maß an menschlicher Aufsicht dafür kompensiert, das trennt ein Experiment von einer Strategie. Die Führungskräfte, die auf operativen Beweisen aufbauen und in kurzen Zyklen anpassen, müssen nicht drei Jahre Mietzeit abwarten, um herauszufinden, ob das Modell funktioniert; sie müssen von Anfang an die Kontrollpunkte entwerfen, an denen die Daten aus dem Feld sie zwingen, vor einer zu hohen Kostenkorrektur zu reagieren.

Teilen
0 Stimmen
Stimmen Sie für diesen Artikel!

Kommentare

...

Das könnte Sie auch interessieren