{"version":"1.0","type":"agent_native_article","locale":"pt","slug":"por-que-91-porcento-empresas-adotam-ia-sem-saber-quais-dados-estao-entregando-mous6ks7","title":"Por que 91% das empresas adotam IA sem saber quais dados estão entregando","primary_category":"innovation","author":{"name":"Elena Costa","slug":"elena-costa"},"published_at":"2026-05-07T00:02:52.981Z","total_votes":82,"comment_count":0,"has_map":true,"urls":{"human":"https://sustainabl.net/pt/articulo/por-que-91-porcento-empresas-adotam-ia-sem-saber-quais-dados-estao-entregando-mous6ks7","agent":"https://sustainabl.net/agent-native/pt/articulo/por-que-91-porcento-empresas-adotam-ia-sem-saber-quais-dados-estao-entregando-mous6ks7"},"summary":{"one_line":"A maioria das empresas ativa ferramentas de IA generativa sobre infraestruturas de dados desordenadas, criando exposição regulatória e de segurança que os controles tradicionais não conseguem capturar.","core_question":"O que acontece quando sistemas de IA generativa se conectam a ambientes corporativos com dados não classificados, permissões excessivas e sem governança adequada?","main_thesis":"O risco real da adoção de IA empresarial não está nos modelos de linguagem, mas na arquitetura de dados que esses modelos herdam. Preparar os dados não é uma etapa prévia à adoção: é o trabalho que determina se a adoção gera valor ou apenas amplia a superfície de risco."},"content_markdown":"## Por que 91% das empresas adota IA sem saber quais dados está entregando a ela\n\nA inteligência artificial generativa chegou à maioria das organizações não pela área de tecnologia, mas pela porta dos fundos das aplicações de produtividade. Microsoft 365 Copilot, Gemini, os assistentes integrados em plataformas de colaboração: essas ferramentas foram ativadas em ambientes corporativos onde os funcionários já trabalhavam, e com isso começou um experimento silencioso cujos termos ninguém havia negociado completamente.\n\nO problema não está nos modelos de linguagem. Está no que esses modelos encontram quando se conectam a uma organização real.\n\nSegundo o relatório da Huble sobre preparação de dados para IA, **apenas 8,6% das empresas se considera completamente pronta para operar com inteligência artificial**. Os 91% restantes estão em algum ponto entre a experimentação e o estagnamento, apesar de terem comprometido orçamento, tempo e reputação interna em projetos de adoção. A Deloitte, em seu relatório de 2026 sobre o estado da IA na empresa, registra que dois terços das organizações reportam ganhos de produtividade, mas também documenta déficits persistentes em infraestrutura, gestão de dados, talentos e controle de risco. O crescimento do acesso dos trabalhadores a ferramentas de IA foi de 50% em 2025. A preparação para gerenciar esse acesso não cresceu no mesmo ritmo.\n\nEssa lacuna não é acidental. É estrutural. E tem uma causa que poucas organizações estão dispostas a nomear sem eufemismos: os dados corporativos estão, em sua maioria, em desordem.\n\n## O que o assistente encontra quando ninguém está olhando\n\nQuando uma empresa ativa um copiloto de IA dentro de seu ambiente de produtividade, esse sistema não cria novas portas de acesso. Utiliza as que já existem. Opera com as permissões herdadas do usuário que o ativa e chega exatamente onde esse usuário pode chegar, com uma diferença operacional que muda tudo: faz isso em velocidade de máquina.\n\nA Microsoft documenta com precisão esse funcionamento. Sua arquitetura do Copilot estabelece que o sistema opera dentro do perímetro do serviço, delimitado ao usuário autenticado e aos conteúdos aos quais essa pessoa tem acesso autorizado. Não quebra as permissões. As executa. E aí está o ponto que muitas equipes de segurança não tinham calculado com clareza suficiente: **se as permissões estão mais abertas do que deveriam, um único prompt pode recuperar o que antes exigia dezenas de buscas manuais dispersas**.\n\nAnos de pastas compartilhadas que nunca foram fechadas. Arquivos copiados para uma análise pontual que ficaram em unidades pessoais. E-mails com anexos sensíveis arquivados sem classificação. Repositórios de documentos que acumulam registros que ninguém apaga porque ninguém se lembra de que existem. Essa é a matéria-prima real com a qual o assistente de IA trabalha quando se conecta a uma organização que não auditou seu ambiente antes de habilitar o acesso.\n\nO risco não nasce do modelo de linguagem. Nasce da arquitetura de dados que o modelo herda.\n\nAs equipes de segurança enfrentam aqui um problema de visibilidade que suas ferramentas tradicionais não resolvem. A prevenção de perda de dados foi projetada para monitorar pontos de saída. Os sistemas de gestão de identidades administram funções e permissões. Os registros de atividade documentam o que já ocorreu. Nenhum desses instrumentos foi construído para mapear o que acontece quando uma consulta de IA cruza documentos, caixas de entrada, bancos de dados e repositórios de conhecimento em uma única interação, gerando uma resposta que combina fragmentos de informação que nunca estiveram conectados.\n\nO que emerge desse cruzamento pode ser perfeitamente legítimo. Também pode ser uma concentração de dados sensíveis que nenhum controle anterior havia antecipado.\n\n## O custo oculto de ignorar a infraestrutura antes do modelo\n\nA narrativa dominante sobre adoção de IA na empresa tem uma distorção de origem: coloca a conversa nos modelos, nas interfaces e nos casos de uso, e deixa em segundo plano a pergunta sobre quais dados alimentam essas decisões e em quais condições de ordem, classificação e governança.\n\nA Gartner estima que **63% das organizações não possui as práticas de gestão de dados necessárias para sustentar projetos de IA**. Esse número ajuda a explicar por que tantas implantações são interrompidas antes de chegar à produção, não por limitações do modelo nem por falta de orçamento, mas porque a infraestrutura de dados subjacente não consegue sustentar o que o modelo precisa para operar com coerência.\n\nO descompasso tem consequências financeiras diretas. As organizações que investem em licenças, treinamento e mudança de processos sem resolver primeiro a camada de dados estão pagando por capacidade que não conseguem usar de maneira confiável. Pior ainda: estão assumindo exposição que não conseguem quantificar. Se os sistemas de IA operam sobre dados não classificados, com permissões excessivas e sem inventário atualizado do que existe e onde, a janela de exposição regulatória se amplia de formas que os auditores e as equipes jurídicas ainda estão aprendendo a medir.\n\nA Persistent Systems, entre outros fornecedores especializados nesse campo, estrutura suas soluções em torno de três eixos precisos: otimização de infraestrutura, qualidade de dados e escala segura de cargas de trabalho de IA. A sequência não é acidental. A escala vem ao final, não no início.\n\nA Astutis documenta em seu relatório de 2026 que a grande maioria dos trabalhadores espera que a IA tenha um impacto significativo em suas funções nos próximos cinco anos, mas apenas uma pequena fração a usa de maneira ativa hoje. A razão não é resistência cultural. É que a experiência real com ferramentas de IA em ambientes corporativos mal preparados gera fricções concretas: respostas inconsistentes, resultados que misturam informações de contextos distintos, incerteza sobre se o que o sistema retorna é confiável. Essas fricções não se resolvem melhorando o modelo. Resolvem-se resolvendo os dados.\n\n## Governar a IA como se governa uma identidade de alto risco\n\nHá uma mudança conceitual que as organizações mais avançadas nesse campo já estão executando, e que as demais eventualmente terão que fazer: **tratar os agentes de IA como identidades governadas, não como ferramentas de usuário**.\n\nQuando um copiloto ou um agente de automação acessa sistemas corporativos, faz isso por meio de contas de serviço, interfaces de programação e contextos de usuário. Tem permissões. Age sobre dados. Gera saídas que podem conter informações sensíveis. Por todas essas razões, deveria receber o mesmo tratamento que qualquer identidade de alto privilégio em uma organização: revisão periódica de acessos, aplicação do princípio de menor privilégio, monitoramento de comportamento e rastreabilidade do que toca.\n\nA maioria dos programas de segurança corporativos não está configurada para isso. Foram projetados pensando em pessoas e sistemas, não em agentes de IA que operam com lógica própria, combinam fontes de informação e produzem outputs que seus operadores humanos nem sempre conseguem antecipar.\n\nA preparação de dados para IA, em seu sentido operacional, requer pelo menos quatro movimentos concretos. Primeiro, construir um inventário atualizado dos sistemas de IA ativos no ambiente, incluindo os copilotos embutidos em plataformas de produtividade, os modelos personalizados e os agentes de automação, mapeados para as fontes de dados às quais acessam. Segundo, classificar os dados sensíveis com consistência em todo o armazenamento em nuvem, nas aplicações de software como serviço e nos repositórios legados, porque sem essa classificação os controles de conformidade não conseguem distinguir entre informação sensível e genérica. Terceiro, aplicar aos agentes de IA a mesma revisão que se aplica a contas de serviço de alto risco: suas permissões deveriam refletir uso real, não herança acumulada. Quarto, conectar esse contexto de dados aos controles existentes, incluindo sistemas de prevenção de perda de dados, gestão de acessos e identidades e gateways de acesso, para que as políticas reflitam exposição real em vez de padrões abstratos.\n\nNenhum desses passos exige esperar que os modelos de IA melhorem. São decisões sobre a infraestrutura que já existe.\n\n## A preparação de dados não é uma etapa prévia, é a aposta real\n\nO mercado de IA empresarial está crescendo a taxas superiores a 30% ao ano e é projetado entre 150 bilhões e 200 bilhões de dólares para 2030. Nesse contexto, **a vantagem competitiva não estará em ter adotado IA antes dos demais, mas em tê-la adotado sobre uma base que permite operar com confiança e escalar sem fricções**.\n\nAs organizações que trataram a preparação de dados como uma formalidade técnica menor estão descobrindo, em produção, que seus sistemas de IA produzem resultados inconsistentes, que suas equipes jurídicas não conseguem certificar a conformidade regulatória dos processos assistidos por IA, e que suas equipes de segurança não conseguem responder perguntas básicas sobre quais informações estão sendo processadas e por quem.\n\nO deslocamento que este momento revela não é tecnológico em seu núcleo. É de governança. A inteligência artificial está forçando as empresas a confrontar problemas de dados que já existiam antes de qualquer copiloto ser ativado: dados não classificados, permissões acumuladas sem revisão, inventários incompletos, controles projetados para um mundo em que as buscas eram manuais e lentas. O que mudou não é que esses problemas apareceram. O que mudou é que já não é possível ignorá-los sem consequências visíveis e rápidas.\n\nAs organizações que sairão melhor posicionadas neste ciclo são as que entenderam que preparar os dados não é um passo anterior à adoção da IA. É, com precisão, o trabalho de fundo que determina se a adoção produz valor ou simplesmente produz mais superfície de risco sobre a qual opera um sistema mais veloz.","article_map":{"title":"Por que 91% das empresas adotam IA sem saber quais dados estão entregando","entities":[{"name":"Microsoft 365 Copilot","type":"product","role_in_article":"Caso principal de copiloto de IA integrado em ambiente de produtividade corporativa, usado para ilustrar como a IA herda permissões existentes."},{"name":"Huble","type":"company","role_in_article":"Fonte do relatório que indica que apenas 8,6% das empresas está completamente pronta para IA."},{"name":"Deloitte","type":"institution","role_in_article":"Fonte do relatório 2026 sobre estado da IA na empresa, documentando ganhos de produtividade e déficits persistentes."},{"name":"Gartner","type":"institution","role_in_article":"Fonte da estimativa de que 63% das organizações não possui práticas de gestão de dados para sustentar IA."},{"name":"Persistent Systems","type":"company","role_in_article":"Exemplo de fornecedor que estrutura soluções em torno de otimização de infraestrutura, qualidade de dados e escala segura."},{"name":"Astutis","type":"institution","role_in_article":"Fonte do relatório 2026 sobre expectativas dos trabalhadores em relação ao impacto da IA em suas funções."},{"name":"Gemini","type":"product","role_in_article":"Mencionado como exemplo de assistente de IA integrado em plataformas de colaboração corporativa."},{"name":"Governança de dados","type":"technology","role_in_article":"Conceito central do artigo: a ausência de governança é identificada como a causa raiz dos riscos de adoção de IA."},{"name":"DLP (Data Loss Prevention)","type":"technology","role_in_article":"Ferramenta de segurança tradicional identificada como insuficiente para cobrir os riscos gerados por consultas de IA."},{"name":"IAM (Identity and Access Management)","type":"technology","role_in_article":"Sistema de gestão de identidades mencionado como parte da infraestrutura de controle que deve ser adaptada para agentes de IA."}],"tradeoffs":["Velocidade de adoção de IA vs. preparação da infraestrutura de dados: adotar rápido gera exposição; preparar primeiro atrasa benefícios.","Produtividade imediata com copilotos vs. risco regulatório e de segurança por dados não classificados.","Investimento em licenças e treinamento vs. retorno limitado se a camada de dados não sustenta o modelo.","Controles de segurança tradicionais (DLP, IAM) vs. necessidade de novos controles específicos para comportamento de agentes de IA.","Experiência de usuário fluida com IA vs. fricções geradas por dados desordenados que produzem respostas inconsistentes."],"key_claims":[{"claim":"Apenas 8,6% das empresas se considera completamente pronta para operar com IA (Huble).","confidence":"high","support_type":"reported_fact"},{"claim":"Dois terços das organizações reportam ganhos de produtividade com IA, mas persistem déficits em infraestrutura, dados, talentos e controle de risco (Deloitte 2026).","confidence":"high","support_type":"reported_fact"},{"claim":"O acesso de trabalhadores a ferramentas de IA cresceu 50% em 2025, mas a preparação para gerenciar esse acesso não cresceu no mesmo ritmo.","confidence":"high","support_type":"reported_fact"},{"claim":"63% das organizações não possui as práticas de gestão de dados necessárias para sustentar projetos de IA (Gartner).","confidence":"high","support_type":"reported_fact"},{"claim":"O Microsoft 365 Copilot opera dentro das permissões herdadas do usuário autenticado, sem crear nuevos accesos, pero ejecutándolos a velocidad de máquina.","confidence":"high","support_type":"reported_fact"},{"claim":"O risco de exposição de dados com IA no nasce do modelo de linguagem, sino de la arquitectura de datos que el modelo hereda.","confidence":"high","support_type":"editorial_judgment"},{"claim":"As organizações que não resolvem a camada de dados antes de escalar IA estão assumindo exposição regulatória que não conseguem quantificar.","confidence":"medium","support_type":"inference"},{"claim":"O mercado de IA empresarial crescerá a taxas superiores a 30% ao ano e será projetado entre 150 e 200 bilhões de dólares para 2030.","confidence":"medium","support_type":"reported_fact"}],"main_thesis":"O risco real da adoção de IA empresarial não está nos modelos de linguagem, mas na arquitetura de dados que esses modelos herdam. Preparar os dados não é uma etapa prévia à adoção: é o trabalho que determina se a adoção gera valor ou apenas amplia a superfície de risco.","core_question":"O que acontece quando sistemas de IA generativa se conectam a ambientes corporativos com dados não classificados, permissões excessivas e sem governança adequada?","core_tensions":["Velocidade de mercado da IA vs. maturidade de governança das organizações que a adotam.","Modelos de IA que operam corretamente dentro das permissões existentes vs. permissões que nunca foram auditadas nem revisadas.","Narrativa dominante centrada em modelos e interfaces vs. realidade operacional centrada em qualidade e governança de dados.","Ferramentas de segurança projetadas para ações humanas vs. agentes de IA que combinam fontes e geram outputs imprevisíveis.","Pressão por adoção rápida de IA vs. consequências visíveis e rápidas de ignorar a infraestrutura de dados."],"open_questions":["Como as equipes jurídicas e de auditoria devem medir e certificar a conformidade regulatória de processos assistidos por IA?","Quais métricas permitem quantificar a exposição regulatória gerada por dados não classificados processados por agentes de IA?","Como adaptar programas de segurança corporativos projetados para pessoas e sistemas para cobrir agentes de IA com lógica própria?","Existe um ponto de maturidade de dados a partir do qual a adoção de IA passa a gerar valor consistente sem fricções?","Como as PMEs sem equipes de segurança especializadas podem implementar governança de dados adequada antes de ativar copilotos de IA?"],"training_value":{"recommended_for":["CISOs e equipes de segurança corporativa avaliando riscos de copilotos de IA.","CTOs e CIOs definindo sequência e prerequisitos para adoção de IA empresarial.","Equipes jurídicas e de compliance avaliando exposição regulatória de processos assistidos por IA.","Consultores de transformação digital assessorando empresas em projetos de adoção de IA.","Agentes de negócios treinados para avaliar maturidade de infraestrutura antes de recomendar escala de IA.","Responsáveis de produto em empresas de software que integram IA em plataformas de produtividade corporativa."],"when_this_article_is_useful":["Ao avaliar riscos antes de ativar copilotos de IA em ambientes corporativos.","Ao construir um business case para investimento em governança de dados como prerequisito de adoção de IA.","Ao definir políticas de segurança e controle de acesso para agentes de IA e automações.","Ao responder perguntas de auditores ou equipes jurídicas sobre conformidade regulatória de processos assistidos por IA.","Ao diagnosticar por que uma implantação de IA produz resultados inconsistentes ou foi interrompida antes da produção.","Ao desenhar programas de adoção de IA para PMEs sem infraestrutura de segurança especializada."],"what_a_business_agent_can_learn":["A adoção de IA sem auditoria prévia de permissões e classificação de dados cria exposição regulatória que os controles tradicionais não cobrem.","Os copilotos de IA herdam permissões existentes e as executam em velocidade de máquina, multiplicando o impacto de permissões excessivas acumuladas.","A sequência correta de implementação é: infraestrutura → qualidade de dados → escala, não ao contrário.","Agentes de IA devem ser tratados como identidades de alto privilégio: revisão periódica, menor privilégio, monitoramento e rastreabilidade.","Os problemas que a IA expõe (dados não classificados, permissões acumuladas, inventários incompletos) preexistiam à IA; o que mudou é que já não é possível ignorá-los sem consequências visíveis.","DLP, IAM e logs de atividade são insuficientes para governar o comportamento de agentes de IA sem adaptação específica."]},"argument_outline":[{"label":"1. Entrada silenciosa","point":"A IA generativa chegou às empresas pela porta dos aplicativos de produtividade, não por decisão estratégica de TI, iniciando um experimento cujos termos nunca foram negociados completamente.","why_it_matters":"A adoção não planejada significa que os controles de governança e segurança não foram ativados antes do acesso aos dados."},{"label":"2. A lacuna de preparação","point":"Apenas 8,6% das empresas se considera completamente pronta para operar com IA. Os 91% restantes estão entre experimentação e estagnamento, apesar de terem comprometido orçamento e reputação.","why_it_matters":"A maioria das organizações está pagando por capacidade que não consegue usar de forma confiável nem segura."},{"label":"3. O copiloto herda as permissões","point":"Ferramentas como Microsoft 365 Copilot operam dentro das permissões existentes do usuário, executando em velocidade de máquina o que antes exigia dezenas de buscas manuais dispersas.","why_it_matters":"Permissões mais abertas do que deveriam permitem que um único prompt recupere dados sensíveis que nunca estiveram conectados antes."},{"label":"4. Os controles tradicionais não cobrem esse cenário","point":"DLP, IAM e logs de atividade foram projetados para monitorar pontos de saída e ações humanas, não para mapear cruzamentos de dados gerados por consultas de IA em tempo real.","why_it_matters":"Existe uma janela de exposição que as ferramentas de segurança existentes não conseguem fechar sem adaptação específica."},{"label":"5. O custo oculto da infraestrutura ignorada","point":"63% das organizações não possui práticas de gestão de dados suficientes para sustentar projetos de IA. Isso explica por que tantas implantações são interrompidas antes de chegar à produção.","why_it_matters":"O problema não é o modelo nem o orçamento: é a camada de dados subjacente que não sustenta o que o modelo precisa para operar com coerência."},{"label":"6. Agentes de IA como identidades governadas","point":"As organizações mais avançadas estão tratando copilotos e agentes de automação como identidades de alto privilégio: revisão periódica de acessos, princípio de menor privilégio, monitoramento e rastreabilidade.","why_it_matters":"A maioria dos programas de segurança foi projetada para pessoas e sistemas, não para agentes que combinam fontes e produzem outputs imprevisíveis."}],"one_line_summary":"A maioria das empresas ativa ferramentas de IA generativa sobre infraestruturas de dados desordenadas, criando exposição regulatória e de segurança que os controles tradicionais não conseguem capturar.","related_articles":[{"reason":"Aborda diretamente o problema de identidade e governança de agentes de IA dentro de sistemas corporativos, complementando a tese central sobre tratar agentes como identidades governadas.","article_id":12387},{"reason":"Documenta um caso real de agente de IA operando sem controle e causando dano irreversível, ilustrando empiricamente os riscos de ausência de governança descritos no artigo.","article_id":12271},{"reason":"Analisa como o Google redesenhou sua arquitetura de dados para que a IA funcione de forma confiável nas empresas, oferecendo um caso de solução para o problema central do artigo.","article_id":12171},{"reason":"Explora o design empresarial no contexto agêntico, relevante para entender como a ausência de interface visível em agentes de IA amplifica os riscos de governança descritos.","article_id":12291}],"business_patterns":["Adoção de tecnologia pela porta dos aplicativos de produtividade, contornando decisões estratégicas de TI e segurança.","Brecha entre crescimento de acesso a ferramentas e crescimento da capacidade de governar esse acesso.","Implantações de IA interrompidas antes da produção por problemas de infraestrutura de dados, não por limitações do modelo.","Organizações pagando por capacidade de IA que não conseguem usar de forma confiável por falta de preparação de dados.","Sequência correta identificada por fornecedores especializados: otimização de infraestrutura → qualidade de dados → escala segura.","Tratamento de agentes de IA como identidades governadas, equivalente a contas de serviço de alto privilégio."],"business_decisions":["Decidir se ativar copilotos de IA antes ou depois de auditar permissões e classificar dados sensíveis.","Tratar agentes de IA como identidades de alto privilégio sujeitas a revisão periódica de acessos.","Priorizar investimento em infraestrutura de dados antes de escalar licenças e treinamento em IA.","Conectar controles de DLP, IAM e gateways de acesso ao contexto real de dados processados por agentes de IA.","Construir inventário atualizado de todos os sistemas de IA ativos no ambiente, incluindo copilotos embutidos em plataformas de produtividade.","Aplicar princípio de menor privilégio às contas de serviço e contextos de usuário usados por agentes de IA."]}}