Anthropic usa sua própria IA como sistema nervoso central e os números justificam

Anthropic usa sua própria IA como sistema nervoso central e os números justificam

Anthropic não vende produtividade com IA: a empresa fabrica internamente com dados próprios e transforma isso em produto.

Mateo VargasMateo Vargas13 de abril de 20267 min
Compartilhar

Anthropic usa sua própria IA como sistema nervoso central e os números justificam

Há uma diferença entre uma empresa que vende pás durante a corrida do ouro e uma que usa essas pás para extrair seu próprio mineral. A Anthropic, avaliada em 380 bilhões de dólares em fevereiro de 2026, está fazendo ambas as coisas ao mesmo tempo, e esse detalhe importa mais do que qualquer comparação de benchmarks com a OpenAI ou o Google.

Segundo dados internos da companhia publicados pela Fast Company, seus empregados utilizam Claude em aproximadamente 60% do seu trabalho diário, reportando ganhos de produtividade próximos de 50%, e um 27% das tarefas assistidas por IA correspondem a trabalhos que, de outra forma, não teriam sido tentados. Essa última cifra é a que mais me interessa do ponto de vista da economia unitária: não se trata apenas de fazer o mesmo mais rápido, mas de expandir a capacidade produtiva sem aumentar proporcionalmente a folha de pagamento. Na engenharia, o efeito foi ainda mais pronunciado: a introdução do Claude Code gerou um aumento de 200% nas pull requests por engenheiro. Isso não é uma melhora marginal; é uma reconfiguração do denominador na equação de custo por unidade de output.

O que a Anthropic está fazendo internamente tem um nome preciso na teoria de portfólios: redução de correlação entre ativos. Quando uma empresa constrói seu próprio conjunto de ferramentas sobre o produto que vende, seus custos operacionais e suas receitas se movem na mesma direção sob quase qualquer cenário de mercado. Se o Claude melhora, as equipes internas produzem mais com a mesma quantidade de funcionários. Se as equipes internas descobrem atritos, esses atritos se tornam sinais de produto. O ciclo é estruturualmente virtuoso.

O laboratório mais barato do mundo é seu próprio escritório

Mark Pike, advogado interno da Anthropic, construiu em uma tarde uma ferramenta de revisão legal que analisa rascunhos em relação a políticas internas, aponta riscos e envia resumos diretamente ao Slack. Para calibrar esse modelo, processou os padrões de 742 tickets de Jira em uma única conversa. O custo marginal desse desenvolvimento foi, na prática, próximo de zero em termos de infraestrutura adicional. Não foi necessário um time de engenheiros, não foi necessário um contrato com um fornecedor externo de software jurídico, e não foram necessárias semanas de especificação de requisitos.

Isso é o que me parece analiticamente interessante aqui, não o fato de que a IA seja poderosa, mas a estrutura de custos que habilita. A Anthropic está convertendo o que em qualquer outra empresa seria um custo fixo de consultoria ou licenças de software em um custo variável que escala com o uso real. Sua conselheira de IA aplicada descreve a integração do Claude com ferramentas como Gmail, Slack e Salesforce através de um protocolo de conexão que já alcançou 100 milhões de downloads mensais. Isso não é uma demonstração interna: é infraestrutura que, uma vez validada dentro da empresa, é empacotada e vendida externamente.

Essa dinâmica tem um precedente claro na indústria de software: o Amazon Web Services nasceu porque a Amazon precisava resolver seu próprio problema de infraestrutura em escala. O que diferencia a Anthropic é a velocidade do ciclo. O Claude Code passou de ser um experimento de pesquisa a gerar uma taxa de receita anual de mil milhões de dólares em seis meses. O Cowork, o produto para gestão autônoma de arquivos e tarefas de escritório, foi lançado em janeiro de 2026, diretamente inspirado por como os empregados estavam adaptando o Claude Code para usos não relacionados à programação. O sinal de mercado veio de dentro.

Onde os dados mostram fragilidade estrutural

O modelo é elegante, mas tem vetores de risco que vale a pena nomear com precisão.

Primeiro, a dependência de outputs não verificados. Satyen Sangani, CEO da Alation, articula bem: quando os sistemas se tornam suficientemente complexos e as pessoas param de revisar os resultados, o conhecimento institucional se erosiona. O risco não é que a IA falhe de forma espetacular, mas que falhe de forma silenciosa e ninguém na organização tenha o critério para detectá-lo. Isso é especialmente relevante para a Anthropic porque suas próprias métricas de produtividade, os 200% de aumento nas pull requests, poderiam estar medindo volume sem captar qualidade ou dívida técnica acumulada.

Segundo, a concentração de vantagem em equipes integradas em relação às que não estão. Os dados internos sugerem que as equipes que adotam o Claude de forma profunda e transversal geram ganhos muito superiores àqueles que o utilizam de forma fragmentada. Isso cria uma divergência interna de produtividade que, se não for gerenciada ativamente através das ferramentas de fluxos de trabalho padronizados que a empresa está desenvolvendo, acaba gerando atrito organizacional. Uma empresa que produz software de IA com uma distribuição bimodal de capacidades internas não é um argumento de venda, é um problema de governança.

Terceiro, e isso é estrutural para o setor completo: Senthil Muthiah da McKinsey aponta que a compressão do ciclo de aprendizado pode gerar uma geração de trabalhadores que supervisionam processos sem ter desenvolvido o juízo necessário para fazê-lo corretamente. Para a Anthropic, cuja proposta de valor depende criticamente de que seus clientes usem a ferramenta de forma responsável, este risco não é abstrato. Se as empresas que adotam o Claude massivamente produzem outputs de baixa qualidade porque ninguém na cadeia tem o critério para detectar o erro, o dano reputacional recairá sobre a ferramenta, não sobre o operador.

A vantagem que os concorrentes não podem copiar rapidamente

A Microsoft tem o Copilot. O Google tem o Gemini integrado ao Workspace. A diferença operacional da Anthropic não está nos benchmarks, embora no SWE-bench seus modelos mais recentes superem o GPT-5.4 da OpenAI com 78.7% contra 76.9%, mas no loop de retroalimentação entre uso interno e desenvolvimento de produto.

A Shopify relata que o Claude Code permite que pessoas sem formação técnica construam ferramentas funcionais em minutos. A Wiz migrou uma base de código de 50,000 linhas em 20 horas, contra os dois ou três meses que levaria por métodos convencionais. A Allianz está expandindo o uso além da engenharia. Estes não são casos de uso experimentais: são sinais de adoção em setores onde o custo do erro é alto e a disposição para pagar é elevada. A Deutsche Telekom está implementando ferramentas de Claude para seus 470,000 empregados.

O que torna esse pipeline de clientes estruturalmente valioso para a Anthropic é que cada um desses desdobramentos em escala gera dados de comportamento real em produção que nenhum benchmark de laboratório pode replicar. A empresa que usa seu produto como sistema nervoso interno, e depois vende esse mesmo produto a clientes que operam em ambientes de alta exigência, está comprimindo o ciclo de iteração de uma forma que as empresas que separam pesquisa de produto não podem igualar facilmente.

O risco de concentração existe: se o Claude falhar ou se um concorrente conseguir uma diferença de desempenho suficientemente grande, a empresa perde simultaneamente sua vantagem interna e sua posição de mercado. Mas esse é precisamente o risco que a Anthropic escolheu assumir, e por enquanto a arquitetura modular de suas ferramentas, Skills para fluxos padronizados, MCP para integrações e Cowork para automação de tarefas, lhe dá superfície suficiente de adaptação para não depender de uma única aposta monolítica.

A tese dos 380 bilhões de dólares de avaliação repousa sobre uma premissa verificável: que o laboratório mais barato do mundo para treinar e validar ferramentas de IA em escala é a própria operação da Anthropic, e que essa vantagem se sustenta enquanto o ciclo entre uso interno e produto externo continuar sendo mais curto do que o de qualquer concorrente.

Compartilhar
0 votos
Vote neste artigo!

Comentários

...

Você também pode gostar