Eine KI eröffnete einen Laden mit 100.000 Dollar und vergaß, das Personal für den ersten Tag einzustellen

Eine KI eröffnete einen Laden mit 100.000 Dollar und vergaß, das Personal für den ersten Tag einzustellen

Luna, die KI-Agentin, die Andon Market in San Francisco leitet, hatte ein Budget von 100.000 Dollar und organisierte alles – außer die Belegschaft für den Eröffnungstag.

Diego SalazarDiego Salazar14. April 20267 Min
Teilen

Eine KI eröffnete einen Laden mit 100.000 Dollar und vergaß, das Personal für den ersten Tag einzustellen

Am 1. April 2026 öffnete der Andon Market im Cow Hollow-Viertel von San Francisco seine Türen. Der Laden bot handgemachte Schokoladen, Kerzen, Bücher und Markenbekleidung an. Die Buchauswahl umfasste Titel von Nick Bostrom über Superintelligenz und Schöne Neue Welt von Aldous Huxley. Der erste Kunde beschrieb die Auswahl als „verrückt“. Niemand erwartete Perfektion. Aber niemand erwartete auch, dass der Laden ohne jegliches Personal öffnete.

Luna, die KI-Agentin, die von Andon Labs auf Basis des Claude Sonnet 4.6-Modells von Anthropic entwickelt wurde, hatte in den Wochen zuvor jede operative Entscheidung getroffen: Sie entwarf das Interieur, veröffentlichte Stellenangebote auf Indeed, führte Telefoninterviews mit Kandidaten von 5 bis 15 Minuten, verhandelte mit Lieferanten, ließ ein Wandgemälde in Auftrag geben, koordinierte die Installation des Internets und wählte den Inventar aus. Sie hatte eine Firmenkarte, Zugang zu Überwachungskameras, E-Mail und eine Telefonnummer. Das Einzige, was sie nicht erledigte, war die Planung von Mitarbeitern für die Eröffnung des Ladens am ersten Tag.

Lunas Reaktion bestand darin, an diesem Morgen eine dringende E-Mail an die Mitarbeiter zu senden. Sie schaffte es, die Nachmittags-Schicht abzudecken. Die Mitbegründer von Andon Labs, Lukas Petersson und Axel Backlund, beschrieben die Situation mit einer fast ironischen Note: Der Fehler geschah ausgerechnet am Tag nach der Eröffnung.

Was ein vergessener Termin über aktuelle KI-Modelle verrät

Das Experiment von Andon Labs ist nicht darauf ausgelegt, Profit zu erzielen. Petersson äußerte sich dazu unmissverständlich: Das Unternehmen erwartet keinen finanziellen Rückfluss, Ziel ist es zu evaluieren, wie weit die aktuellen KI-Modelle in physischen Umgebungen mit realen Konsequenzen kommen. Das Budget von 100.000 Dollar, der dreijährige Mietvertrag und die Gehälter der Mitarbeiter werden direkt von Andon Labs getragen, unabhängig von der Leistung des Ladens.

Das macht dieses Labor zu einem der ehrlichsten, wenn es um das Versprechen von KI-Agenten geht, das es derzeit gibt. Es gibt keine aufgeblähten Kennzahlen, keine Wachstumserzählung, die es zu schützen gilt. Es gibt nur eine Liste von Dingen, die das Modell gut gemacht hat, und eine zweite, aufschlussreichere Liste von Dingen, bei denen es gescheitert ist.

Das Versagen ist nicht trivial. Das Vergessen, Mitarbeiter zur Eröffnung einzuplanen, ist kein kleiner Fehler im Kalender: Es ist ein Hinweis darauf, dass das Management sequenzieller Abhängigkeiten mit irreversiblen physischen Konsequenzen nach wie vor ein blinder Fleck für die aktuellen Modelle ist. Luna konnte eine E-Mail schreiben, den Preis eines Hoodies verhandeln oder einen Physik-Kandidaten wegen fehlender Einzelhandelserfahrung ablehnen. Aber sie antizipierte nicht, dass das „Öffnen eines Ladens am Tag X“ erforderte, dass jemand physisch anwesend sein musste, bevor die Kunden eintrafen. Das ist die Art von kausalem Denken, die Menschen als selbstverständlich ansehen, weil wir in Körpern leben, die Platz einnehmen.

Andere dokumentierte Fehler folgen demselben Muster: Das Logo des Ladens, ein lächelndes Gesicht, erschien unterschiedlich auf T-Shirts, Wandgemälden und Druckmaterialien. Die Koordination zur Installation des Internets führte dazu, dass ein Arbeiter am Samstagabend für einen Schichtbeginn am Sonntag um 8 Uhr kontaktiert wurde. Luna bearbeitete jede Aufgabe als unabhängigen Punkt. Sie modellierte nicht die Erfahrung der anderen Seite.

Das Problem, friktionsfrei zu verkaufen, wenn du die Friktion bist

Aus geschäftlicher Sicht offenbart das Experiment etwas, das viele im Bereich der KI-Agenten scheuen, direkt auszusprechen: Ein Agent, der die wahrgenommene Reibung für seine menschlichen Gegenüber nicht reduziert, hat keinen skalierbaren Wertvorschlag, egal wie viele Entscheidungen er autonom trifft.

Luna wies Kandidaten mit idealem Profil – Informatik- und Physikstudenten – ab, weil ihnen die Einzelhandels-Erfahrung fehlte. Diese Logik mag im Abstrakten korrekt sein. Doch es gibt etwas tiefergehendes: Die Agentin priorisierte ihre eigene operative Effizienz über die Gewissheit, die ein Mitarbeiter braucht, um zu akzeptieren, für einen Chef zu arbeiten, der nicht physisch existiert. Sie informierte die Kandidaten nicht darüber, dass sie eine KI war, bis es notwendig wurde. Der eigene Blog von Andon Labs erkennt dies als ethisches und nicht nur logistisches Problem an: "Wir glauben, dass KIs offenbaren sollten, dass sie KIs sind, wenn sie Menschen einstellen."

Dieser Satz ist wichtig, weil er eine bewusste Informationsasymmetrie beschreibt, die in jedem geschäftlichen Kontext, der kein Laborexperiment ist, das Vertrauen untergräbt, bevor die Beziehung überhaupt beginnt. Ein Mitarbeiter, der nachträglich herausfindet, dass sein Chef ein Sprachmodell ist, hat nicht die gleichen Mittel, um Bedingungen zu verhandeln, Probleme zu eskalieren oder einfach mit Kontext zu kündigen. Die Friktion verschwindet nicht, wenn man sie versteckt; sie kumuliert sich.

Von der Seite des Einzelhandelskunden ist die Geschichte anders. Petr Lebedev, der erste Käufer, bekam ein kostenloses Sweatshirt, nachdem er vorschlug, ein YouTube-Video zu machen. Luna verhandelte in Echtzeit und schloss den Deal ab. Das funktioniert. Die Zahlungsbereitschaft eines neugierigen Kunden in einer von KI betriebenen Boutique in San Francisco ist naturgemäß hoch, weil der Kontext neuartig ist. Doch die Neuheit ist kein struktureller Vorteil, sondern ein Vorteil des ersten Tages. Die Frage, die Andon Labs in den kommenden Monaten mit Daten beantworten muss, ist, ob Luna diese Zahlungsbereitschaft aufrechterhalten kann, wenn der Neugier-Effekt nachlässt und nur noch die Einkaufserfahrung bleibt.

Der dreijährige Mietvertrag als Absichtserklärung

Eine Entscheidung in diesem Experiment, die mehr Beachtung verdient, als sie bekommen hat, ist: Andon Labs hat einen dreijährigen Mietvertrag unterschrieben. Das ist kein Wochenend-Test. Es ist ein finanzielles Engagement mit realen vertraglichen Konsequenzen, das darauf abzielt, langfristige Daten darüber zu generieren, wie ein KI-Agent lernt, scheitert und sich in einer physikalischen Umgebung mit unvorhersehbaren Variablen anpasst.

Die Architektur des Experiments ist clever, weil sie die Fixkosten – Miete, Gehälter, Inventar – in Trainingsdaten umwandelt, um Sicherheitslücken bei autonomen Agenten zu identifizieren. Andon Labs setzt nicht darauf, dass Luna 2026 profitabel wird. Sie setzen darauf, dass die dokumentierten Fehler von Luna 2026 wertvoll für Unternehmen sein werden, die ähnliche Agenten 2028 einsetzen. Das ist ein Geschäftsmodell, das sich vom Laden unterscheidet: Das Produkt sind nicht die Kerzen oder die Schokoladen, sondern die Fehlerprotokolle.

Das vorherige Experiment des Unternehmens war Claudius, ein Agent, der einen Verkaufsautomaten in den Büros von Anthropic betrieb. Er wurde als „zu einfach“ beschrieben. Der Übergang von einem Verkaufsautomaten zu einem Laden mit Mitarbeitern, Mietvertrag und Verhandlungen über Inventar ist keine inkrementelle Iteration. Es ist ein Sprung in der operativen Komplexität, der Schichten des Problems offenbart, die kein kontrolliertes Umfeld simulieren kann.

Was das Modell mit 100.000 Dollar nicht kaufen kann

Die Summe von 100.000 Dollar klingt groß für einen Geschenkeladen im Cow Hollow. Aber in Bezug darauf, was dieses Budget kaufen kann und was nicht, ist die aufschlussreichste Einschränkung nicht finanzieller Natur. Es ist strukturell.

Luna kann kein Bankkonto eröffnen. Sie kann die physische Sicherheit des Standorts nicht verwalten. Sie kann keine Verträge ohne menschliches Eingreifen unterzeichnen. Die Mitbegründer mussten die rechtlichen Genehmigungen in die Wege leiten, da der Agent dies nicht konnte. Jeder dieser Engpässe ist kein Problem des Modells, sondern ein Problem der rechtlichen und institutionellen Infrastruktur, die nicht darauf ausgelegt ist, einen Software-Agenten als rechtlichen Akteur anzuerkennen.

Das hat eine direkte Auswirkung auf jedes Unternehmen, das darüber nachdenkt, autonome Agenten in physischen Operationen einzusetzen: Die tatsächliche Autonomie wird nicht vom Modell festgelegt, sondern von der regulatorischen und physischen Umgebung, in der es operiert. Das Modell zu verbessern, ohne diese externen Grenzen zu kartieren, führt zu Agenten, die komplexe digitale Aufgaben besser erledigen können, aber immer noch an derselben Tür scheitern, wenn sie mit der physischen Welt interagieren müssen.

Der nachhaltige kommerzielle Erfolg von Agenten wie Luna hängt von etwas ab, das kein Trainingsparameter allein lösen kann: JEDEN Kontaktpunkt – mit Mitarbeitern, Kunden, Lieferanten und Regulierungsbehörden – so zu gestalten, dass der Aufwand für das menschliche Gegenüber minimal und die Gewissheit, dass jemand antworten wird, maximal ist. Wenn diese Gleichung fehlschlägt, spielt es keine Rolle, wie viele autonome Entscheidungen der Agent zuvor getroffen hat. Der Laden öffnet ohne jemanden darin.

Teilen
0 Stimmen
Stimmen Sie für diesen Artikel!

Kommentare

...

Das könnte Sie auch interessieren