Mais agentes de IA, mais trabalho humano: a paradoxo que ninguém previu
Há uma promessa que circula em quase todas as apresentações de produto de inteligência artificial desde 2023: ao implantar agentes autônomos suficientes, suas equipes finalmente poderão se concentrar no trabalho que realmente importa. A automatização faria o resto. O problema com essa promessa é que ela assume que o trabalho cognitivo é um volume fixo que pode ser delegado. Não é.
Aaron Levie, CEO da Box, articular isso com uma clareza que poucas vozes do setor se permitiram: orquestrar múltiplos agentes de IA não elimina a carga cognitiva humana, simplesmente a transforma. Onde antes havia trabalho de execução, agora há trabalho de supervisão, coordenação e tomada de decisões sobre sistemas que operam em velocidades que o cérebro humano não consegue acompanhar em tempo real. O resultado líquido não é menos esforço. É esforço diferente e, em muitos casos, mais exigente.
A ilusão do gestor libertado
Quando uma organização implanta um agente de IA para gerenciar fluxos de documentos, outro para analisar contratos e um terceiro para monitorar o cumprimento regulatório, a pergunta imediata que o comitê executivo deve se fazer não é quanto tempo cada agente economiza por separado. A pergunta correta é: quem coordena os três quando seus resultados se contradizem? Quando um detecta uma anomalia que os outros dois ignoraram? Ou sob qual critério humano se decide qual está certo?
Isso não é uma pergunta técnica. É uma pergunta de governança, e recai sobre pessoas.
O padrão que Levie descreve possui uma mecânica precisa: à medida que o número de agentes cresce, a complexidade de sua orquestração cresce de forma não linear. Dois agentes requerem uma interface de supervisão. Cinco agentes requerem um protocolo. Vinte agentes exigem algo semelhante a uma estrutura organizacional paralela, com suas próprias hierarquias, regras de escalonamento e métricas de desempenho. Alguém precisa projetar essa estrutura. Alguém precisa mantê-la. E quando falha, alguém deve prestar contas.
As empresas que estão descobrindo isso de forma dolorosa são precisamente aquelas que adotaram agentes sob a lógica de reduzir mão de obra antes de entender qual trabalho real estavam eliminando e que novo trabalho estavam criando. Compraram automatização pensando que estavam adquirindo simplicidade. Obtiveram escala com complexidade incorporada.
O que foi automatizado não era o problema
Este é o diagnóstico que mais incomoda as equipes de produto e os comitês de transformação digital: a maioria das tarefas que os agentes de IA executam com eficiência não eram aquelas que geravam os gargalos mais caros na organização.
Os agentes são notavelmente bons em processar volume: classificar documentos, extrair dados estruturados, redigir rascunhos sob templates conhecidos. Essas tarefas são mensuráveis, repetitivas e fáceis de avaliar. Também são, em muitos contextos, as tarefas que os funcionários já haviam aprendido a executar rapidamente e com pouco erro. O trabalho que realmente consome energia executiva, aquele que envolve julgamento sob incerteza, negociação entre partes com interesses opostos ou decisões sem precedente claro, esse trabalho não pode ser delegado a um agente. E, no entanto, esse é exatamente o trabalho que se multiplica quando há mais agentes para supervisionar.
A empresa que contrata agentes de IA para liberar seus melhores executores acaba, paradoxalmente, com esses executores dedicados a vigiar máquinas em vez de resolver problemas de negócio. O deslocamento ocorre, mas na direção oposta à prometida.
Isso não implica que a adoção de agentes seja um erro estratégico. Implica que a métrica de sucesso estava mal calibrada desde o início. Uma empresa que mede o retorno de seus agentes em horas-homem economizadas está medindo o indicador errado. A métrica relevante é quanto do trabalho cognitivo de alto valor ficou desbloqueado para os humanos, não quanto trabalho de baixo valor foi absorvido pelas máquinas.
O trabalho que ninguém estava contratando
Há um padrão de comportamento organizacional que essa situação revela com nitidez. Quando as empresas adotam agentes de IA, o trabalho que declaram querer eliminar é o operacional e repetitivo. Mas o trabalho que realmente precisam que alguém faça, e que ninguém soube articular claramente até que o sistema falhe, é o trabalho de manter a coerência entre decisões distribuídas em tempo real.
Esse trabalho não tem nome em nenhum organograma. Não está orçado como uma função específica. E, no entanto, quando uma cadeia de agentes toma cem microdecisões por hora em nome da empresa, alguém precisa garantir que essas decisões sejam coerentes entre si, que não contradigam a política comercial, que não exponham a organização ao risco regulatório e que, quando o sistema comete um erro, esse erro não seja propagado cem vezes antes que alguém o detecte.
As organizações que estão gerenciando isso com maior solidez não são as que implantaram mais agentes primeiro. São aquelas que investiram tempo em mapear quais decisões podiam ser autônomas e quais exigiam intervenção humana antes de automatizá-las, e não depois. A distinção soa óbvia escrita assim. Na prática, sob a pressão dos ciclos de adoção e das obrigações públicas de transformação digital, essa distinção é sistematicamente postergada.
Levie não está argumentando contra os agentes de IA. Ele está apontando que a promessa de liberação cognitiva assume um modelo de trabalho que não corresponde a como operam as organizações com responsabilidades reais. O trabalho cognitivo não desaparece quando a execução é automatizada: migra para cima na cadeia de decisão, onde as consequências de errar são maiores e os prazos para corrigir são mais curtos.
O verdadeiro trabalho que as empresas estão contratando
O sucesso ou fracasso das estratégias de agentes de IA nos próximos dois anos não dependerá de quantos agentes uma empresa pode implantar, nem da sofisticação técnica de sua arquitetura. Dependerá de se os líderes entenderem a tempo que o que suas organizações precisavam não era a automatização de tarefas, mas capacidade para tomar decisões coerentes a uma maior velocidade e com menor atrito interno.
Essa é a necessidade profunda que está por trás da adoção maciça de agentes. Não é eficiência operacional. É velocidade de decisão com controle. E esse problema não é resolvido por nenhum agente sozinho. É resolvido por uma arquitetura organizacional que saiba o que delegar, o que reter e quem responde quando o sistema autônomo toma o caminho errado.
As empresas que contratarem agentes para resolver o primeiro problema, a eficiência, e negligenciarem o segundo, a governança de decisões distribuídas, descobrirão que escalaram sua capacidade de cometer erros antes de escalar sua capacidade de corrigí-los.










