Agent-native article available: Por que 91% das empresas adotam IA sem saber quais dados estão entregandoAgent-native article JSON available: Por que 91% das empresas adotam IA sem saber quais dados estão entregando
Por que 91% das empresas adotam IA sem saber quais dados estão entregando

Por que 91% das empresas adotam IA sem saber quais dados estão entregando

A inteligência artificial generativa chegou à maioria das organizações não pela área de tecnologia, mas pela porta dos fundos dos aplicativos de produtividade. Microsoft 365 Copilot, Gemini, os assistentes integrados em plataformas de colaboração: essas ferramentas foram ativadas em ambientes corporativos onde os funcionários já trabalhavam, e com isso começou um experimento silencioso cujos termos ninguém havia negociado completamente. O problema não está nos modelos de linguagem. Está no que esses modelos encontram quando se conectam a uma organização real.

Elena CostaElena Costa7 de maio de 20268 min
Compartilhar

Por que 91% das empresas adota IA sem saber quais dados está entregando a ela

A inteligência artificial generativa chegou à maioria das organizações não pela área de tecnologia, mas pela porta dos fundos das aplicações de produtividade. Microsoft 365 Copilot, Gemini, os assistentes integrados em plataformas de colaboração: essas ferramentas foram ativadas em ambientes corporativos onde os funcionários já trabalhavam, e com isso começou um experimento silencioso cujos termos ninguém havia negociado completamente.

O problema não está nos modelos de linguagem. Está no que esses modelos encontram quando se conectam a uma organização real.

Segundo o relatório da Huble sobre preparação de dados para IA, apenas 8,6% das empresas se considera completamente pronta para operar com inteligência artificial. Os 91% restantes estão em algum ponto entre a experimentação e o estagnamento, apesar de terem comprometido orçamento, tempo e reputação interna em projetos de adoção. A Deloitte, em seu relatório de 2026 sobre o estado da IA na empresa, registra que dois terços das organizações reportam ganhos de produtividade, mas também documenta déficits persistentes em infraestrutura, gestão de dados, talentos e controle de risco. O crescimento do acesso dos trabalhadores a ferramentas de IA foi de 50% em 2025. A preparação para gerenciar esse acesso não cresceu no mesmo ritmo.

Essa lacuna não é acidental. É estrutural. E tem uma causa que poucas organizações estão dispostas a nomear sem eufemismos: os dados corporativos estão, em sua maioria, em desordem.

O que o assistente encontra quando ninguém está olhando

Quando uma empresa ativa um copiloto de IA dentro de seu ambiente de produtividade, esse sistema não cria novas portas de acesso. Utiliza as que já existem. Opera com as permissões herdadas do usuário que o ativa e chega exatamente onde esse usuário pode chegar, com uma diferença operacional que muda tudo: faz isso em velocidade de máquina.

A Microsoft documenta com precisão esse funcionamento. Sua arquitetura do Copilot estabelece que o sistema opera dentro do perímetro do serviço, delimitado ao usuário autenticado e aos conteúdos aos quais essa pessoa tem acesso autorizado. Não quebra as permissões. As executa. E aí está o ponto que muitas equipes de segurança não tinham calculado com clareza suficiente: se as permissões estão mais abertas do que deveriam, um único prompt pode recuperar o que antes exigia dezenas de buscas manuais dispersas.

Anos de pastas compartilhadas que nunca foram fechadas. Arquivos copiados para uma análise pontual que ficaram em unidades pessoais. E-mails com anexos sensíveis arquivados sem classificação. Repositórios de documentos que acumulam registros que ninguém apaga porque ninguém se lembra de que existem. Essa é a matéria-prima real com a qual o assistente de IA trabalha quando se conecta a uma organização que não auditou seu ambiente antes de habilitar o acesso.

O risco não nasce do modelo de linguagem. Nasce da arquitetura de dados que o modelo herda.

As equipes de segurança enfrentam aqui um problema de visibilidade que suas ferramentas tradicionais não resolvem. A prevenção de perda de dados foi projetada para monitorar pontos de saída. Os sistemas de gestão de identidades administram funções e permissões. Os registros de atividade documentam o que já ocorreu. Nenhum desses instrumentos foi construído para mapear o que acontece quando uma consulta de IA cruza documentos, caixas de entrada, bancos de dados e repositórios de conhecimento em uma única interação, gerando uma resposta que combina fragmentos de informação que nunca estiveram conectados.

O que emerge desse cruzamento pode ser perfeitamente legítimo. Também pode ser uma concentração de dados sensíveis que nenhum controle anterior havia antecipado.

O custo oculto de ignorar a infraestrutura antes do modelo

A narrativa dominante sobre adoção de IA na empresa tem uma distorção de origem: coloca a conversa nos modelos, nas interfaces e nos casos de uso, e deixa em segundo plano a pergunta sobre quais dados alimentam essas decisões e em quais condições de ordem, classificação e governança.

A Gartner estima que 63% das organizações não possui as práticas de gestão de dados necessárias para sustentar projetos de IA. Esse número ajuda a explicar por que tantas implantações são interrompidas antes de chegar à produção, não por limitações do modelo nem por falta de orçamento, mas porque a infraestrutura de dados subjacente não consegue sustentar o que o modelo precisa para operar com coerência.

O descompasso tem consequências financeiras diretas. As organizações que investem em licenças, treinamento e mudança de processos sem resolver primeiro a camada de dados estão pagando por capacidade que não conseguem usar de maneira confiável. Pior ainda: estão assumindo exposição que não conseguem quantificar. Se os sistemas de IA operam sobre dados não classificados, com permissões excessivas e sem inventário atualizado do que existe e onde, a janela de exposição regulatória se amplia de formas que os auditores e as equipes jurídicas ainda estão aprendendo a medir.

A Persistent Systems, entre outros fornecedores especializados nesse campo, estrutura suas soluções em torno de três eixos precisos: otimização de infraestrutura, qualidade de dados e escala segura de cargas de trabalho de IA. A sequência não é acidental. A escala vem ao final, não no início.

A Astutis documenta em seu relatório de 2026 que a grande maioria dos trabalhadores espera que a IA tenha um impacto significativo em suas funções nos próximos cinco anos, mas apenas uma pequena fração a usa de maneira ativa hoje. A razão não é resistência cultural. É que a experiência real com ferramentas de IA em ambientes corporativos mal preparados gera fricções concretas: respostas inconsistentes, resultados que misturam informações de contextos distintos, incerteza sobre se o que o sistema retorna é confiável. Essas fricções não se resolvem melhorando o modelo. Resolvem-se resolvendo os dados.

Governar a IA como se governa uma identidade de alto risco

Há uma mudança conceitual que as organizações mais avançadas nesse campo já estão executando, e que as demais eventualmente terão que fazer: tratar os agentes de IA como identidades governadas, não como ferramentas de usuário.

Quando um copiloto ou um agente de automação acessa sistemas corporativos, faz isso por meio de contas de serviço, interfaces de programação e contextos de usuário. Tem permissões. Age sobre dados. Gera saídas que podem conter informações sensíveis. Por todas essas razões, deveria receber o mesmo tratamento que qualquer identidade de alto privilégio em uma organização: revisão periódica de acessos, aplicação do princípio de menor privilégio, monitoramento de comportamento e rastreabilidade do que toca.

A maioria dos programas de segurança corporativos não está configurada para isso. Foram projetados pensando em pessoas e sistemas, não em agentes de IA que operam com lógica própria, combinam fontes de informação e produzem outputs que seus operadores humanos nem sempre conseguem antecipar.

A preparação de dados para IA, em seu sentido operacional, requer pelo menos quatro movimentos concretos. Primeiro, construir um inventário atualizado dos sistemas de IA ativos no ambiente, incluindo os copilotos embutidos em plataformas de produtividade, os modelos personalizados e os agentes de automação, mapeados para as fontes de dados às quais acessam. Segundo, classificar os dados sensíveis com consistência em todo o armazenamento em nuvem, nas aplicações de software como serviço e nos repositórios legados, porque sem essa classificação os controles de conformidade não conseguem distinguir entre informação sensível e genérica. Terceiro, aplicar aos agentes de IA a mesma revisão que se aplica a contas de serviço de alto risco: suas permissões deveriam refletir uso real, não herança acumulada. Quarto, conectar esse contexto de dados aos controles existentes, incluindo sistemas de prevenção de perda de dados, gestão de acessos e identidades e gateways de acesso, para que as políticas reflitam exposição real em vez de padrões abstratos.

Nenhum desses passos exige esperar que os modelos de IA melhorem. São decisões sobre a infraestrutura que já existe.

A preparação de dados não é uma etapa prévia, é a aposta real

O mercado de IA empresarial está crescendo a taxas superiores a 30% ao ano e é projetado entre 150 bilhões e 200 bilhões de dólares para 2030. Nesse contexto, a vantagem competitiva não estará em ter adotado IA antes dos demais, mas em tê-la adotado sobre uma base que permite operar com confiança e escalar sem fricções.

As organizações que trataram a preparação de dados como uma formalidade técnica menor estão descobrindo, em produção, que seus sistemas de IA produzem resultados inconsistentes, que suas equipes jurídicas não conseguem certificar a conformidade regulatória dos processos assistidos por IA, e que suas equipes de segurança não conseguem responder perguntas básicas sobre quais informações estão sendo processadas e por quem.

O deslocamento que este momento revela não é tecnológico em seu núcleo. É de governança. A inteligência artificial está forçando as empresas a confrontar problemas de dados que já existiam antes de qualquer copiloto ser ativado: dados não classificados, permissões acumuladas sem revisão, inventários incompletos, controles projetados para um mundo em que as buscas eram manuais e lentas. O que mudou não é que esses problemas apareceram. O que mudou é que já não é possível ignorá-los sem consequências visíveis e rápidas.

As organizações que sairão melhor posicionadas neste ciclo são as que entenderam que preparar os dados não é um passo anterior à adoção da IA. É, com precisão, o trabalho de fundo que determina se a adoção produz valor ou simplesmente produz mais superfície de risco sobre a qual opera um sistema mais veloz.

Compartilhar

Você também pode gostar