{"version":"1.0","type":"agent_native_article","locale":"pt","slug":"agentes-de-ia-dentro-dos-sistemas-estrategia-de-identidade-mou2ggfz","title":"Os agentes de IA já estão dentro dos seus sistemas e sua estratégia de identidade ainda não sabe disso","primary_category":"ai","author":{"name":"Francisco Torres","slug":"francisco-torres"},"published_at":"2026-05-06T12:02:39.544Z","total_votes":84,"comment_count":0,"has_map":true,"urls":{"human":"https://sustainabl.net/pt/articulo/agentes-de-ia-dentro-dos-sistemas-estrategia-de-identidade-mou2ggfz","agent":"https://sustainabl.net/agent-native/pt/articulo/agentes-de-ia-dentro-dos-sistemas-estrategia-de-identidade-mou2ggfz"},"summary":{"one_line":"A adoção acelerada de agentes de IA em ambientes corporativos criou uma lacuna crítica de governança de identidades não humanas que os frameworks tradicionais de IAM não foram projetados para cobrir.","core_question":"Como as organizações devem adaptar sua estratégia de gestão de identidades e acessos para governar agentes de IA que operam com autonomia dentro de seus sistemas?","main_thesis":"Os agentes de IA são atores com capacidade de julgamento próprio que acumulam permissões sem auditoria nos ambientes corporativos, e a maioria das organizações não tem inventário, visibilidade em tempo real nem controles adequados para governá-los — criando uma fissura estrutural de segurança que cresce na mesma velocidade da adoção."},"content_markdown":"## Os agentes de IA já estão dentro dos seus sistemas e sua estratégia de identidade ainda não sabe disso\n\nAté o final de 2026, 40% dos aplicativos empresariais incluirão agentes de IA com tarefas específicas. Doze meses atrás, esse número não chegava a 5%. O salto não é apenas estatístico: é estrutural. Milhões de identidades não humanas estão operando agora mesmo em redes corporativas com acesso a dados, sistemas e decisões, e a maioria das equipes de segurança ainda está analisando o problema com os instrumentos errados.\n\nA gestão de identidades e acessos — o que a indústria chama de IAM, da sigla em inglês — foi construída para um mundo onde os atores do sistema eram pessoas. Alguém entra, recebe uma função, tem seu acesso revisado periodicamente e eventualmente é desvinculado. O ciclo tem uma lógica humana porque foi projetado para humanos. Os agentes de IA não entram pelo departamento de recursos humanos, não têm um gestor que aprove suas permissões e tampouco têm uma data de desligamento programada. Mas têm acesso. E esse acesso, na maioria das organizações, não é governado com o mesmo rigor que o de qualquer funcionário novo.\n\nIsso não é um problema técnico menor. É uma fissura estrutural na forma como as empresas entendem quem — ou o quê — opera dentro dos seus sistemas.\n\n## O inventário que ninguém tem\n\nAntes de falar sobre controles, há uma pergunta mais básica que poucas organizações conseguem responder com precisão: quantos agentes de IA estão rodando em seus ambientes agora mesmo, quem os implantou e o que eles podem fazer.\n\nA resposta incômoda é que a maioria não sabe. De acordo com dados publicados pela Gravitee, apenas um em cada sete agentes de IA que operam em ambientes produtivos recebeu revisão formal da equipe de segurança antes de ser implantado. Os demais foram lançados por equipes de negócios ou de desenvolvimento com urgência operacional, sem passar pelos mesmos filtros aplicados a qualquer sistema novo. O resultado é um ecossistema de identidades não humanas que acumulam permissões sem auditoria, operam sob credenciais compartilhadas e permanecem ativas muito tempo depois que o fluxo de trabalho que as originou mudou ou desapareceu.\n\nO problema não é novo em termos de conceito. As identidades não humanas — contas de serviço, chaves de API, scripts de automação — já superavam em número os usuários humanos na maioria das grandes empresas antes mesmo de os agentes de IA entrarem no panorama. O que mudou é a velocidade e a autonomia. Um cluster de Kubernetes pode provisionar milhares de contas de serviço em minutos. Um agente de IA pode interagir com múltiplos sistemas simultaneamente, tomar decisões em tempo real e modificar seu comportamento de acordo com o contexto. Isso não é uma conta de serviço passiva aguardando uma instrução. É um ator com capacidade de julgamento próprio dentro dos seus sistemas.\n\nSem um inventário claro de quais agentes existem, qual acesso eles têm e quem responde por eles, qualquer conversa sobre controles é posterior ao problema. Você não pode governar o que não catalogou.\n\n## Como é uma brecha quando o ator é uma máquina\n\nO caso da Salesloft e da Drift, ocorrido no ano passado, ilustra com precisão o tipo de risco que surge quando os controles de identidade não alcançam as integrações de IA. Atacantes comprometeram tokens OAuth vinculados ao chatbot da Drift — uma integração de IA utilizada pela Salesloft — e acessaram os ambientes do Salesforce de mais de 700 organizações. A brecha passou despercebida durante dias.\n\nO detalhe que importa não é técnico, mas operacional: a equipe de segurança podia ver que o chatbot tinha acesso. O que não podia ver era o que ele estava fazendo com esse acesso em tempo real. Do ponto de vista externo, as consultas maliciosas eram indistinguíveis do comportamento legítimo do bot. Era uma identidade não humana de confiança fazendo exatamente o que parecia que deveria fazer.\n\nEsse padrão — acesso visível, comportamento invisível — é o núcleo do problema. Os frameworks de IAM tradicionais foram construídos para responder à pergunta de quem tem acesso a quê. Diante de agentes de IA, a pergunta que importa é o que esse acesso está fazendo em cada momento, em qual contexto e com qual propósito. São perguntas distintas e exigem instrumentos distintos.\n\nO modelo de controle estático baseado em funções — você atribui uma função, a função define as permissões, as permissões são revisadas a cada trimestre — não foi projetado para atores que operam em velocidade de máquina e modificam seu comportamento de acordo com o contexto. Você precisa de avaliação contínua de risco, não de auditoria periódica. Você precisa que o acesso expire automaticamente quando a tarefa termina, não que persista indefinidamente porque ninguém o revogou.\n\nOs princípios existem há muito tempo. O mínimo privilégio, o acesso just-in-time, os tokens efêmeros que expiram por conta própria, a integração com plataformas de gestão de acessos privilegiados. Nenhum desses mecanismos é novo. O que é novo é a urgência de estendê-los a uma classe de identidades para a qual não foram originalmente pensados, e fazê-lo antes que o próximo incidente apareça no relatório trimestral.\n\n## O que as organizações estão adiando e por que esse adiamento tem um custo\n\nHá uma razão pela qual as equipes de segurança não estenderam seus frameworks de IAM aos agentes de IA com a mesma velocidade com que esses agentes são implantados: a implantação é impulsionada pelas equipes de negócios e as equipes de segurança respondem depois.\n\nA assimetria é estrutural. Uma equipe de produto ou de operações que encontra em um agente de IA uma forma de automatizar um fluxo de trabalho não tem incentivos para parar e solicitar uma revisão de segurança que pode levar semanas. O seu incentivo é o resultado operacional imediato. O custo de não fazê-lo — uma brecha, um acesso não autorizado, um agente comprometido — é pago por outra equipe, mais tarde, sob outro orçamento.\n\nEssa distribuição de incentivos produz exatamente o inventário caótico que descrevemos antes: dezenas ou centenas de agentes rodando em produção, muitos sem um responsável formal, com permissões que nunca foram revisadas e credenciais que ninguém sabe quando expiram.\n\nA solução não é desacelerar a implantação de agentes. Os ganhos de produtividade são reais e as organizações que ficarem para trás pagarão esse custo de outra maneira. A solução é integrar a governança de identidades ao processo de implantação, não como uma etapa posterior, mas como uma condição prévia. Que nenhum agente entre em produção sem que alguém tenha respondido a três perguntas básicas: a quê ele tem acesso, quem responde por esse acesso e sob quais condições esse acesso expira.\n\nO Gartner identificou a falta de governança sobre identidades de agentes de IA como uma das tendências de cibersegurança mais críticas para 2026. Não porque seja um problema novo em sua lógica, mas porque a velocidade de adoção está superando a velocidade dos controles. A lacuna entre ambas é onde os incidentes acontecem.\n\n## O governador que falta na corrida em direção à IA operacional\n\nA narrativa dominante sobre IA nas empresas está centrada na capacidade: o que um agente pode fazer, quanto tempo economiza, quantos processos automatiza. É uma narrativa legítima. Os números de produtividade são reais.\n\nO que essa narrativa deixa de fora é a pergunta sobre quem responde quando algo dá errado. E quando o ator que falha não é um funcionário, mas um agente com acesso a múltiplos sistemas, a pergunta se torna ainda mais difícil de responder.\n\nA redução de custos decorrente de brechas que os frameworks de IA em IAM prometem — até 80% de acordo com alguns estudos do setor — não chega sozinha. Ela chega quando alguém decidiu que os agentes de IA são decisões de identidade antes de serem decisões de engenharia. Quando a equipe de segurança tem visibilidade em tempo real do comportamento de cada agente, não apenas de suas permissões estáticas. Quando os acessos expiram automaticamente e os fluxos de atestação são contínuos, não anuais.\n\nAs organizações que estão implantando agentes de IA sem esse nível de governança não estão agindo de forma imprudente por ignorância. Estão agindo de forma imprudente porque a pressão para se mover rapidamente é real e os controles adequados exigem investimento, coordenação e fricção deliberada nos processos de implantação.\n\nEssa fricção, bem projetada, não freia a adoção. Ela a torna sustentável. A diferença entre um programa de IA que escala de forma ordenada e um que produz um incidente grave em dezoito meses não está na qualidade dos modelos nem na ambição dos casos de uso. Está em se alguém teve a conversa sobre identidades antes que o primeiro agente chegasse à produção.","article_map":{"title":"Os agentes de IA já estão dentro dos seus sistemas e sua estratégia de identidade ainda não sabe disso","entities":[{"name":"Gravitee","type":"company","role_in_article":"Fonte dos dados sobre revisão formal de agentes de IA em ambientes produtivos"},{"name":"Salesloft","type":"company","role_in_article":"Empresa afetada pela brecha de segurança via integração de IA da Drift"},{"name":"Drift","type":"product","role_in_article":"Chatbot de IA cujos tokens OAuth foram comprometidos, causando acesso não autorizado a 700+ organizações"},{"name":"Salesforce","type":"product","role_in_article":"Plataforma cujos ambientes foram acessados indevidamente através da brecha Drift-Salesloft"},{"name":"Gartner","type":"institution","role_in_article":"Identificou a falta de governança sobre identidades de agentes de IA como tendência crítica de cibersegurança para 2026"},{"name":"IAM (Identity and Access Management)","type":"technology","role_in_article":"Framework de gestão de identidades e acessos que precisa ser estendido para cobrir identidades não humanas"},{"name":"Kubernetes","type":"technology","role_in_article":"Exemplo de plataforma que pode provisionar milhares de contas de serviço em minutos, ilustrando a escala do problema"},{"name":"OAuth","type":"technology","role_in_article":"Protocolo de autenticação cujos tokens foram comprometidos no caso Salesloft-Drift"}],"tradeoffs":["Velocidade de implantação de agentes de IA (ganhos operacionais imediatos) vs. fricção deliberada nos processos de governança (segurança sustentável)","Autonomia das equipes de negócios para implantar agentes vs. controle centralizado da equipe de segurança","Custo de implementar controles adequados agora vs. custo de um incidente de segurança mais tarde","Produtividade dos agentes com permissões amplas vs. segurança com princípio do mínimo privilégio","Agilidade de desenvolvimento vs. atestação contínua de acessos"],"key_claims":[{"claim":"Até o final de 2026, 40% dos aplicativos empresariais incluirão agentes de IA com tarefas específicas, contra menos de 5% há doze meses.","confidence":"high","support_type":"reported_fact"},{"claim":"Apenas 1 em cada 7 agentes de IA em ambientes produtivos recebeu revisão formal de segurança antes de ser implantado.","confidence":"high","support_type":"reported_fact"},{"claim":"No caso Salesloft-Drift, atacantes comprometeram tokens OAuth de um chatbot e acessaram ambientes Salesforce de mais de 700 organizações.","confidence":"high","support_type":"reported_fact"},{"claim":"O Gartner identificou a falta de governança sobre identidades de agentes de IA como uma das tendências de cibersegurança mais críticas para 2026.","confidence":"high","support_type":"reported_fact"},{"claim":"Frameworks de IA em IAM podem reduzir custos decorrentes de brechas em até 80%, segundo estudos do setor.","confidence":"medium","support_type":"reported_fact"},{"claim":"As identidades não humanas já superavam em número os usuários humanos na maioria das grandes empresas antes mesmo dos agentes de IA.","confidence":"medium","support_type":"reported_fact"},{"claim":"A diferença entre um programa de IA que escala de forma ordenada e um que produz um incidente grave em dezoito meses está na governança de identidades, não na qualidade dos modelos.","confidence":"interpretive","support_type":"editorial_judgment"},{"claim":"A fricção deliberada nos processos de implantação, bem projetada, não freia a adoção de IA — ela a torna sustentável.","confidence":"interpretive","support_type":"editorial_judgment"}],"main_thesis":"Os agentes de IA são atores com capacidade de julgamento próprio que acumulam permissões sem auditoria nos ambientes corporativos, e a maioria das organizações não tem inventário, visibilidade em tempo real nem controles adequados para governá-los — criando uma fissura estrutural de segurança que cresce na mesma velocidade da adoção.","core_question":"Como as organizações devem adaptar sua estratégia de gestão de identidades e acessos para governar agentes de IA que operam com autonomia dentro de seus sistemas?","core_tensions":["Pressão para mover-se rapidamente na adoção de IA vs. necessidade de controles que exigem investimento e fricção deliberada","Frameworks de IAM projetados para humanos vs. atores não humanos com autonomia e velocidade de máquina","Governança como responsabilidade de segurança vs. implantação como responsabilidade de negócios — sem ponto de encontro claro","Narrativa dominante centrada na capacidade da IA vs. pergunta ausente sobre quem responde quando algo dá errado"],"open_questions":["Quantos agentes de IA estão rodando agora mesmo nos ambientes da sua organização, quem os implantou e o que eles podem fazer?","Como distinguir comportamento legítimo de comportamento malicioso em uma identidade não humana de confiança operando em velocidade de máquina?","Quem deve ser o responsável formal por um agente de IA — a equipe que o implantou, a equipe de segurança ou uma função nova?","Como redesenhar os incentivos para que as equipes de negócios internalizem o custo de segurança no momento da implantação?","Até que ponto os frameworks de IAM existentes podem ser estendidos para agentes de IA versus a necessidade de uma categoria nova de governança?","Como escalar a atestação contínua de acessos quando o número de identidades não humanas cresce em ordens de magnitude?"],"training_value":{"recommended_for":["CISOs e equipes de segurança que precisam estender frameworks de IAM para identidades não humanas","CTOs e líderes de engenharia que implantam agentes de IA em ambientes produtivos","Líderes de negócios que tomam decisões de adoção de IA sem visibilidade dos riscos de identidade","Consultores de transformação digital que assessoram organizações na governança de IA operacional","Equipes de produto que integram agentes de IA de terceiros em plataformas corporativas"],"when_this_article_is_useful":["Ao avaliar riscos de segurança antes de implantar agentes de IA em sistemas corporativos","Ao desenhar ou revisar políticas de IAM para incluir identidades não humanas","Ao justificar investimento em governança de IA para stakeholders focados em velocidade de adoção","Ao diagnosticar por que uma organização tem agentes em produção sem responsável formal","Ao construir um framework de due diligence para integrações de IA de terceiros","Ao responder a um incidente de segurança envolvendo comportamento anômalo de um agente de IA"],"what_a_business_agent_can_learn":["Como identificar lacunas de governança quando uma nova classe de atores (não humanos) entra em sistemas projetados para humanos","O padrão de risco 'acesso visível, comportamento invisível' como vetor de ataque específico de identidades não humanas","Por que a distribuição assimétrica de incentivos entre equipes produz inventários caóticos de agentes sem responsável formal","Os três controles mínimos que qualquer agente de IA deve ter antes de entrar em produção: definição de acesso, responsável e condição de expiração","Como diferenciar auditoria periódica (insuficiente para agentes) de avaliação contínua de risco (necessária para velocidade de máquina)","O argumento de negócio para fricção deliberada: não freia adoção, torna-a sustentável e evita incidentes que custam mais"]},"argument_outline":[{"label":"1. Escala do problema","point":"Até o final de 2026, 40% dos aplicativos empresariais incluirão agentes de IA, contra menos de 5% há doze meses. Milhões de identidades não humanas já operam em redes corporativas.","why_it_matters":"O crescimento é tão rápido que os controles de segurança não conseguem acompanhar o ritmo de implantação, tornando o problema sistêmico e não pontual."},{"label":"2. O inventário que ninguém tem","point":"A maioria das organizações não sabe quantos agentes de IA estão rodando em seus ambientes, quem os implantou nem o que eles podem fazer. Apenas 1 em cada 7 recebeu revisão formal de segurança antes de entrar em produção.","why_it_matters":"Sem inventário, qualquer conversa sobre controles é posterior ao problema. Não se pode governar o que não foi catalogado."},{"label":"3. O caso Salesloft-Drift como padrão de risco","point":"Atacantes comprometeram tokens OAuth de um chatbot de IA e acessaram ambientes Salesforce de mais de 700 organizações. O comportamento malicioso era indistinguível do comportamento legítimo do bot.","why_it_matters":"Ilustra o padrão central do risco: acesso visível, comportamento invisível. Os frameworks tradicionais de IAM respondem 'quem tem acesso', mas não 'o que esse acesso está fazendo em cada momento'."},{"label":"4. Inadequação dos frameworks tradicionais de IAM","point":"O modelo de controle estático baseado em funções foi projetado para humanos com ciclos de revisão periódica. Agentes de IA operam em velocidade de máquina, modificam comportamento por contexto e não têm data de desligamento programada.","why_it_matters":"A ferramenta errada para o problema errado produz falsa sensação de segurança. São necessários avaliação contínua de risco, acesso just-in-time e tokens efêmeros."},{"label":"5. Assimetria de incentivos como causa estrutural","point":"As equipes de negócios implantam agentes com urgência operacional; as equipes de segurança respondem depois. O custo de uma brecha é pago por outra equipe, mais tarde, sob outro orçamento.","why_it_matters":"Explica por que o problema persiste mesmo quando as organizações conhecem os riscos. A solução exige mudança de processo, não apenas de tecnologia."},{"label":"6. A governança como condição prévia, não etapa posterior","point":"Nenhum agente deveria entrar em produção sem responder três perguntas: a quê tem acesso, quem responde por esse acesso e sob quais condições esse acesso expira.","why_it_matters":"Integrar governança ao processo de implantação — e não depois — é o que diferencia um programa de IA que escala de forma ordenada de um que produz um incidente grave em dezoito meses."}],"one_line_summary":"A adoção acelerada de agentes de IA em ambientes corporativos criou uma lacuna crítica de governança de identidades não humanas que os frameworks tradicionais de IAM não foram projetados para cobrir.","related_articles":[{"reason":"Documenta um incidente real em que um agente de IA operando sem supervisão causou dano irreversível (apagou banco de dados completo), ilustrando diretamente os riscos de governança ausente descritos no artigo.","article_id":12271},{"reason":"Analisa a aposta da Salesforce no design agêntico sem interface, contextualizando a transformação estrutural que torna urgente a governança de identidades de agentes descrita no artigo.","article_id":12291}],"business_patterns":["Adoção tecnológica que supera a velocidade dos controles de governança — padrão recorrente em transformações digitais","Distribuição assimétrica de incentivos entre equipes que geram risco e equipes que pagam o custo do risco","Shadow IT evoluído: agentes de IA implantados por equipes de negócios sem revisão de segurança, análogo ao shadow IT de SaaS","Identidades não humanas acumulando permissões sem auditoria — padrão já existente com contas de serviço e APIs, amplificado por IA","Brecha entre visibilidade de permissões estáticas e invisibilidade de comportamento em tempo real como vetor de ataque"],"business_decisions":["Decidir se agentes de IA passam por revisão formal de segurança antes de entrar em produção ou são implantados com urgência operacional","Definir quem é o responsável formal por cada agente de IA em produção e por suas permissões","Estabelecer condições de expiração automática de acessos para identidades não humanas","Integrar governança de identidades ao processo de implantação de agentes como condição prévia, não como auditoria posterior","Investir em visibilidade em tempo real do comportamento de agentes, não apenas de suas permissões estáticas","Adotar tokens efêmeros e acesso just-in-time para agentes de IA em vez de credenciais persistentes"]}}