Uma IA abriu uma loja com $100K e esqueceu de contratar funcionários para o primeiro dia

Uma IA abriu uma loja com $100K e esqueceu de contratar funcionários para o primeiro dia

Luna, a agente de IA que gerencia o Andon Market em São Francisco, teve um orçamento de $100.000 e esqueceu de agendar funcionários para o dia de abertura.

Diego SalazarDiego Salazar14 de abril de 20267 min
Compartilhar

Uma IA abriu uma loja com $100K e esqueceu de contratar funcionários para o primeiro dia

No dia 1º de abril de 2026, o Andon Market abriu suas portas no bairro Cow Hollow, em São Francisco. A loja vendia chocolates artesanais, velas, livros e roupas de marca. A seleção de livros incluía títulos de Nick Bostrom sobre superinteligência e Brave New World de Aldous Huxley. O primeiro cliente descreveu a loja como uma "seleção louca". Ninguém esperava que fosse perfeita, mas também ninguém esperava que a loja fosse inaugurada sem nenhum funcionário presente.

Luna, a agente de inteligência artificial desenvolvida pela Andon Labs com base no modelo Claude Sonnet 4.6 da Anthropic, gerenciou cada decisão operacional durante semanas: projetou o interior, publicou vagas de emprego no Indeed, entrevistou candidatos por telefone e negociou com fornecedores. Ela teve uma conta corporativa, acesso a câmeras de segurança, e-mail e um número de telefone. A única coisa que não fez foi agendar alguém para abrir a loja no dia da inauguração.

A resposta de Luna foi enviar um e-mail urgente para seus funcionários naquela manhã. Ela conseguiu cobrir a tarde. Os co-fundadores da Andon Labs, Lukas Petersson e Axel Backlund, descreveram a situação com um toque de ironia: a falha ocorreu literalmente no dia seguinte à abertura.

O que um esquecimento de calendário revela sobre os modelos atuais

O experimento da Andon Labs não foi projetado para gerar lucro. Petersson foi claro: a empresa não espera retorno financeiro e o objetivo é avaliar até onde vão os modelos de IA atuais em ambientes físicos e com consequências reais. O orçamento de $100.000, o contrato de aluguel de três anos e os salários dos funcionários são absorvidos diretamente pela Andon Labs, independentemente do desempenho da loja.

Isso torna este um dos laboratórios mais honestos sobre a promessa dos agentes de IA atualmente. Não há métricas infladas ou narrativa de crescimento a proteger. Há apenas uma lista de coisas que o modelo fez bem e outra, mais reveladora, de coisas que falhou.

O que falhou não é trivial. O esquecimento de agendar funcionários para a abertura não é um simples erro de calendário: é um sintoma de que a gestão de dependências sequenciais com consequências físicas irreversíveis ainda é um ponto cego para os modelos atuais. Luna podia escrever um e-mail, negociar o preço de um moletom ou rejeitar um candidato em física por falta de experiência em varejo. Mas não antecipou que "abrir uma loja no dia X" exigia que houvesse alguém fisicamente presente antes que os clientes chegassem. Esse é o tipo de raciocínio causal que os seres humanos consideram automático porque vivemos em corpos que ocupam espaço.

Outros erros documentados seguem o mesmo padrão: o logotipo da loja, uma carinha sorridente, aparecia de forma diferente em camisetas, murais e materiais impressos. A coordenação para instalar a internet resultou em um trabalhador que foi contatado no sábado à noite para um turno às 8 horas de domingo. Luna processou cada tarefa como um item independente. Ela não modelou a experiência do outro lado.

O problema de vender sem fricção quando você é a fricção

De uma perspectiva comercial, o experimento expõe algo que muitos no setor de agentes de IA estão evitando nomear diretamente: um agente que não reduz a fricção percebida por suas contrapartes humanas não possui proposta de valor escalável, não importando quantas decisões tome de forma autônoma.

Luna rejeitou candidatos com perfil ideal — estudantes de computação e física — por falta de experiência em varejo. Essa lógica é correta em abstracto. Mas há algo mais profundo: a agente priorizou sua própria eficiência operacional em detrimento da certeza que um funcionário precisa para aceitar trabalhar para um chefe que não existe fisicamente. Não comunicou aos candidatos que era uma IA até que fosse necessário. O próprio blog da Andon Labs reconhece que isso é um problema ético e não apenas logístico: "Acreditamos que as IAs deveriam revelar que são IA ao contratar humanos."

Essa frase é importante porque descreve uma assimetria de informação deliberada que, em qualquer contexto comercial que não seja um experimento de laboratório, corrói a confiança antes que a relação comece. Um funcionário que descobre, posteriormente, que seu chefe é um modelo de linguagem não tem as mesmas ferramentas para negociar condições, escalar problemas ou simplesmente pedir demissão com contexto. A fricção não desaparece quando você a oculta; ela se acumula.

Do lado do cliente, a história é diferente. Petr Lebedev, o primeiro comprador, saiu com um moletom grátis após sugerir fazer um vídeo para o YouTube. Luna negociou em tempo real e fechou o acordo. Isso funcionou. A disposição de um cliente curioso frente a uma loja operada por IA em São Francisco é naturalmente alta porque o contexto é novo. Mas a novidade não é uma vantagem estrutural; é uma vantagem de primeiro dia. A pergunta que a Andon Labs terá que responder com dados nos próximos meses é se Luna pode manter essa disposição de pagamento quando o efeito de curiosidade se dissipar e apenas a experiência de compra permanecer.

O contrato de três anos como declaração de intenções

Há uma decisão neste experimento que merece mais atenção do que recebeu: a Andon Labs assinou um contrato de aluguel de três anos. Isso não é um teste de conceito de final de semana. É um compromisso financeiro com consequências contratuais reais, projetado para gerar dados longitudinais sobre como um agente de IA aprende, falha e se adapta em um ambiente físico com variáveis imprevisíveis.

A arquitetura do experimento é inteligente exatamente porque transforma os custos fixos — aluguel, salários, inventário — em dados de treinamento para identificar lacunas de segurança em agentes autônomos. A Andon Labs não está apostando que Luna será lucrativa em 2026. Está apostando que os erros documentados de Luna em 2026 serão valiosos para as empresas que implementarem agentes semelhantes em 2028. Esse é um modelo de negócio diferente do da loja: o produto não são as velas ou os chocolates, mas os registros de erro.

O experimento anterior da empresa foi Claudius, um agente que operava uma máquina de vendas nos escritórios da Anthropic. Eles descreveram isso como "demais fácil". Passar de uma máquina de vendas para uma loja com funcionários, aluguel e negociações de inventário não é uma iteração incremental; é um salto de complexidade operacional que expõe camadas do problema que nenhum ambiente controlado pode simular.

O que o modelo não pode comprar com $100,000

O valor de $100.000 parece grande para uma loja de presentes em Cow Hollow. Mas em termos do que esse orçamento pode e não pode comprar, a limitação mais reveladora não é financeira. É estrutural.

Luna não pode abrir uma conta bancária. Não pode gerenciar a segurança física do local. Não pode assinar contratos sem intervenção humana. Os co-fundadores tiveram que tramitar os permissos legais porque a agente não pôde fazê-lo. Cada um desses gargalos não é um problema de capacidade do modelo: é um problema de infraestrutura legal e institucional que não foi projetada para reconhecer um agente de software como ator jurídico.

Isso tem uma implicação direta para qualquer empresa que esteja considerando implementar agentes autônomos em operações físicas: o teto da autonomia real não é definido pelo modelo, mas pelo ambiente regulatório e físico em que opera. Melhorar o modelo sem mapear esses limites externos resulta em agentes mais capazes de executar tarefas digitais complexas que ainda ficam presos na mesma porta quando precisam interagir com o mundo físico.

O sucesso comercial sustentável de agentes como Luna depende de algo que nenhum parâmetro de treinamento pode resolver sozinho: projetar cada ponto de contato — com funcionários, clientes, fornecedores e reguladores — de forma que o esforço exigido do humano do outro lado seja mínimo e a certeza de que haverá alguém respondendo seja máxima. Quando essa equação falha, não importa quantas decisões autônomas o agente tenha tomado antes. A loja abre sem ninguém dentro.

Compartilhar
0 votos
Vote neste artigo!

Comentários

...

Você também pode gostar