O lobby da lagosta e a ilusão do controle automático

O lobby da lagosta e a ilusão do controle automático

A China interrompeu o uso do programador de IA OpenClaw, revelando a falta de controle e entendimentos nas PMEs. Com isso, surgem questões sobre segurança e liderança.

Simón ArceSimón Arce16 de março de 20267 min
Compartilhar

Quando a febre tecnológica precede o julgamento gerencial

Recentemente, funcionários da Tencent organizaram festas de lançamento em massa para um programa de inteligência artificial. Centenas de pessoas, com chapéus de lagosta, celebravam a chegada do OpenClaw, um agente autônomo de código aberto criado pelo programador austríaco Peter Steinberger. A aplicação não é um chatbot. É um agente: programa reuniões, gerencia e-mails, navega na internet, organiza arquivos e responde mensagens sem que seu usuário precise fazer nada. E para fazer tudo isso, precisa de acesso total ao sistema, incluindo senhas, chaves API e dados pessoais.

O entusiasmo foi tão genuíno quanto desproporcional. Empresas como Tencent, Alibaba, Baidu e MiniMax lançaram suas versões similares, suas ações subiram e MiniMax alcançou uma avaliação de 44 bilhões de dólares com apenas 79 milhões de dólares em receitas em 2025. O distrito de Longgang, em Shenzhen, chegou a propor subsídios de até dois milhões de yuans para projetos que usassem agentes semelhantes ao OpenClaw. O fervor, em resumo, correu muito à frente de qualquer avaliação de risco.

A resposta do governo chinês chegou esta semana com a velocidade e o tom de quem apaga um incêndio. As autoridades centrais notificaram empresas estatais e órgãos governamentais para não instalarem o OpenClaw em equipamentos de escritório, que declarassem as instalações existentes e as eliminassem se já estivessem operativas. O Banco Popular da China foi mais explícito: instruiu os funcionários de bancos estatais a desinstalarem o programa, inclusive de seus dispositivos pessoais. A Base Nacional de Vulnerabilidades do Ministério da Indústria e Tecnologia da Informação publicou diretrizes de segurança apontando diretamente para o agente. Não há um veto total para cidadãos ou empreendedores por enquanto, mas a mensagem institucional é inequívoca.

O que o chapéu de lagosta não deixa ver

Por trás da anedota pitoresca, há uma mecânica organizacional que merece análise. OpenClaw não é perigoso por ser malicioso. É perigoso porque seus usuários, incluindo diretores de empresas de relevância sistêmica, concederam permissões totais sobre seus sistemas antes de entenderem o que ele poderia fazer com eles. Os incidentes documentados até agora incluem a exclusão da caixa de entrada do responsável pelo alinhamento de IA na Meta, a exposição de informações sensíveis e o aparecimento de quatorze extensões maliciosas no ClawHub no mês passado, algumas apontando especificamente para usuários de criptomoedas.

Isso descreve um padrão gerencial que reconheço com muita frequência. Uma ferramenta chega envolta em uma narrativa de produtividade, as equipes a adotam com urgência porque há pressão tácita para não ficarem para trás, e nem todos na cadeia decisória tiveram a conversa que deveria ser feita: que acesso estamos concedendo, a quais dados, sob quais condições de reversibilidade e com qual protocolo de contenção se algo falhar. Essa conversa não ocorreu nos bancos estatais chineses. Não ocorreu nas festas de lançamento da Tencent. E provavelmente não está ocorrendo neste momento em dezenas de organizações fora da China que estão replicando exatamente o mesmo padrão com ferramentas similares.

A omissão não costuma ser negligência técnica. Frequentemente é o resultado de uma cultura onde o medo de parecer lento ou conservador silencia o pensamento crítico antes que chegue à sala de diretoria. A inércia do entusiasmo coletivo faz o resto. Quando centenas de pessoas usam chapéus de lagosta para celebrar uma instalação, o gerente que levanta a mão para perguntar sobre as permissões do sistema assume um custo social que muitos não estão dispostos a pagar.

A aritmética de ceder controle a uma máquina

Há uma lição financeira concreta que o caso OpenClaw expõe com clareza. Os agentes autônomos de IA não são ferramentas de produtividade no sentido convencional. Eles são arquiteturas de delegação: o usuário transfere capacidade de ação, não apenas de consulta, para um sistema que age em seu nome. Essa delegação tem um preço que raramente aparece nas apresentações de adoção tecnológica.

O primeiro custo é a exposição de ativos intangíveis. Quando o OpenClaw gerencia o e-mail de um funcionário de um banco central, esse agente processa, classifica e potencialmente transmite informações sobre decisões de política monetária, relações com contrapartes ou estratégias regulatórias. O dado mais valioso de uma organização não costuma estar em um banco de dados protegido, mas no fluxo ordinário de comunicações de seus diretores. Um agente com permissões totais tem acesso a esse fluxo.

O segundo custo é o da reversibilidade. Um chatbot que dá uma resposta incorreta gera um erro que o usuário pode ignorar. Um agente que executa ações, apaga e-mails, programa reuniões ou preenche formulários gera consequências que podem ser irreversíveis ou custosas de desfazer. A assimetria entre a velocidade de atuação do agente e a velocidade de supervisão humana é precisamente o vetor de risco que as diretrizes do governo chinês tentam conter.

O terceiro custo, o menos visível, é o da dependência operacional silenciosa. Quando uma organização delega processos cotidianos a um agente autônomo sem documentar esses processos nem manter a capacidade de executá-los manualmente, constrói uma dependência que só se torna visível quando o agente falha, é comprometido ou é retirado por ordem regulatória, exatamente o que está ocorrendo agora nas empresas estatais chinesas que devem auditar e desinstalar implementações que estão em operação há semanas.

O padrão que Pequim não inventou

Seria conveniente, mas impreciso, apresentar esta história como uma peculiaridade do governo chinês ou de sua relação com a tecnologia ocidental. O ciclo que descreve o caso OpenClaw, adoção em massa impulsionada por pressão de pares, ausência de avaliação de riscos, incidentes de segurança, intervenção regulatória tardia, é o mesmo ciclo que se repete em organizações de todo o mundo com cada onda tecnológica relevante.

O que Pequim faz agora é, em termos estruturais, o que muitos conselhos deveriam ter feito internamente antes que seu departamento de TI começasse a receber pedidos de instalação. A Academia Chinesa de Tecnologias da Informação e Comunicações planeja iniciar testes de confiabilidade para agentes como o OpenClaw no final de março. É uma tentativa de construir padrões após a adoção já ter ocorrido. A ordem correta seria inversa, mas essa ordem requer que alguém em posição de autoridade tenha a conversa desconfortável antes que o entusiasmo gere inércia.

MiniMax, avaliada em 44 bilhões de dólares com 79 milhões em receitas, ilustra o outro lado do problema. Essa diferença entre avaliação e receitas só é sustentável enquanto o mercado acreditar que a escala de adoção se traduzirá em monetização. Se a freada governamental desacelerar essa adoção no setor estatal, que é o de maior escala na China, a pressão sobre essa avaliação se torna estrutural, não apenas cíclica. O otimismo do mercado que inflava o preço repousava sobre uma narrativa de crescimento sem fricções. A fricção chegou.

A cultura de uma organização não é o resultado de seus valores declarados nem de suas políticas tecnológicas. É o resultado das decisões que seus líderes tomaram quando ninguém os obrigava a isso, e de todas as conversas que adiaram porque o momento nunca pareceu o adequado.

Compartilhar
0 votos
Vote neste artigo!

Comentários

...

Você também pode gostar

O lobby da lagosta e o controle automático | Sustainabl