Quando a IA atende o 911, os preconceitos também ligam

Quando a IA atende o 911, os preconceitos também ligam

A Motorola Solutions adquiriu uma startup de IA para centros de despacho de emergência. Quem projetou esses agentes e quais vozes estão faltando nessa sala?

Isabel RíosIsabel Ríos10 de abril de 20267 min
Compartilhar

A lógica financeira por trás da aquisição é impecável. A arquitetura social, menos.

Em 9 de abril de 2026, a Motorola Solutions anunciou a aquisição da HyperYou, Inc., uma startup especializada em agentes de IA conversacional para centros de despacho de emergência, conhecidos na indústria como PSAPs (Public Safety Answering Points). O movimento não é caprichoso: os centros de despacho nos Estados Unidos operam, em média, a 75% da sua capacidade de pessoal, e mais de dois terços das chamadas que recebem não correspondem a emergências reais. Esse volume de chamadas não críticas colapsa os operadores humanos, atrasa respostas que realmente são urgentes e transforma cada turno em uma maratona de desgaste institucional.

A tese operacional da Hyper é direta: implantar agentes autônomos que gerenciem as chamadas não críticas, detectem quando uma situação se agrava — um carro quebrado que se torna um acidente múltiplo, por exemplo — e transfiram o caso para um especialista humano em tempo real. Além disso, tradução simultânea. A Motorola, por sua vez, planeja integrar essa capacidade em seu portfólio Command Center e sua suíte de IA chamada Assist, com controles de supervisão humana explicitamente incorporados no design.

Desde uma perspectiva puramente financeira, o argumento é sólido. O segmento de software e análise da Motorola historicamente gera margens superiores ao seu negócio de hardware. Automatizar a carga não crítica dos PSAPs sem aumentar proporcionalmente a folha de pagamento pública é exatamente o tipo de proposta de valor que ganha contratos governamentais plurianuais. O CEO e cofundador da Hyper, Ben Sanders, resumiu de forma direta: "Quando alguém liga pedindo ajuda, não pode haver demora". O mercado de tecnologia para governos está há anos em busca desse produto.

Até aqui, a análise convencional. Agora vem o que os comunicados de imprensa sistematicamente omitem.

Um agente de IA para emergências herda os preconceitos de quem o treinou

Os sistemas de IA conversacional não emergem do vazio. Aprendem com dados históricos, e esses dados refletem decisões humanas tomadas em contextos específicos, por pessoas específicas, com pontos cegos específicos. Quando o produto em questão decide se uma chamada para o 911 é uma emergência ou não — e se transfere ou não para um operador humano — as margens de erro não são abstratas. Têm consequências físicas.

A literatura sobre preconceitos algorítmicos em serviços de emergência não é especulativa. Sistemas de previsão policial, triagem hospitalar automatizada e despacho de recursos mostraram padrões documentados de subatendimento a comunidades com menor representação nos dados de treinamento. As chamadas provenientes de áreas com maior proporção de falantes não nativos de inglês, de bairros historicamente subatendidos ou de pessoas com dificuldades de comunicação tendem a ser mal classificadas por modelos treinados sobre corpora que não os representam adequadamente.

O comunicado da Motorola menciona a tradução em tempo real como uma capacidade da Hyper. É um avanço notável. Mas traduzir o idioma não resolve o problema de fundo: um modelo treinado principalmente com chamadas de emergência de áreas urbanas de classe média que falam inglês terá um desempenho degradado diante de padrões de comunicação distintos, mesmo que o texto já esteja em inglês. A diversidade dos dados de treinamento não equivale à diversidade do idioma; equivale à diversidade dos contextos, as formas de narrar uma crise, os códigos culturais com que alguém descreve que precisa de ajuda.

A Motorola enfatiza que seus Assist Agents operam dentro de parâmetros definidos por cada agência, com supervisão humana incorporada. Isso é um controle de governança importante, mas insuficiente se as agências que definem esses parâmetros também não têm diversidade em suas próprias equipes de decisão. Um controle humano exercido por uma equipe homogênea sobre um sistema projetado por outra equipe homogênea não multiplica a perspectiva; a duplica.

O custo invisível das equipes de design sem periferia

As falhas de escala em produtos de tecnologia raramente provêm de erros técnicos. Provenham de suposições não questionadas que ninguém na sala de design tinha incentivos para questionar, porque todos compartilhavam o mesmo mapa mental do problema.

Esta é a fragilidade estrutural que eu gostaria de auditar na aquisição da Hyper. Não a qualidade da equipe — que pelos resultados obtidos antes de serem adquiridos parece competente — mas a arquitetura das redes de onde construíram seu produto. O capital social de uma startup não é apenas sua rede de investidores ou de clientes-piloto. É a amplitude das perspectivas que circulam em suas iterações de design. Uma rede densa mas homogênea — um grupo de pessoas que se conhecem, pensam de maneira similar e validam mutuamente suas suposições — produz um produto com cobertura parcial do problema que diz resolver.

Neste caso, o problema que se alega resolver é universal: qualquer pessoa, em qualquer condição, em qualquer comunidade, pode ligar para o 911. O universo de usuários é radicalmente heterogêneo. O universo de designers, segundo todos os indicadores disponíveis no setor de IA para segurança pública nos Estados Unidos, não é.

Os dados do setor são consistentes: as empresas de tecnologia para segurança pública com maior diversidade em suas equipes de produto têm taxas de adoção mais altas em jurisdições com populações diversas, não por razões ideológicas, mas porque seus modelos falham menos nas margens do problema. Redes que incorporam nós periféricos — operadores de PSAPs rurais, despachadores bilíngues, coordenadores de emergências em comunidades indígenas — produzem conjuntos de treinamento mais robustos e especificações de produto mais completas. Isso se traduz diretamente em menos chamadas mal classificadas e em contratos mais difíceis de perder para a concorrência.

A homogeneidade em equipes de design de IA não é um problema ético que se gestiona no departamento de comunicações. É um defeito de engenharia que se paga no mercado.

A Motorola Solutions agora tem a capacidade instalada para corrigir isso antes que o produto enfrente seu primeiro caso de falha documentada em uma comunidade sub-representada. Também tem os incentivos: os contratos com governos locais nos Estados Unidos estão sujeitos a regulamentos de equidade em serviços públicos que estão se endurecendo. Um sistema de despacho de IA que mostre padrões de subatendimento diferencial não vai sobreviver a uma auditoria federal, não importa quão preciso seja na média.

O mandato que a Motorola ainda não emitiu

A integração da Hyper no portfólio da Motorola representa uma aposta de longo prazo na automação da primeira linha de resposta pública. A infraestrutura técnica parece sólida. O modelo de negócios faz sentido. O risco não está na tecnologia; está na composição das redes que vão decidir como esse sistema será treinado, calibrado e auditado nos próximos anos.

A escala de implantação que a Motorola tem em mente — PSAPs em todo o território dos Estados Unidos — significa que as falhas não serão falhas locais. Serão falhas sistêmicas, replicadas de jurisdição para jurisdição, até que algum incidente as torne visíveis de forma irreversível. Isso não é um cenário apocalíptico; é a história documentada de cada sistema de IA que foi implantado em grande escala sem diversidade na equipe de design.

O movimento estratégico inteligente não é adicionar um comitê de ética após o lançamento. É incorporar agora, no processo de integração da Hyper, as pessoas que operam na periferia do sistema: os despachadores que trabalham em PSAPs com escassez crônica de pessoal, os coordenadores de emergências em comunidades rurais ou imigrantes, os operadores que atendem chamadas em condições de comunicação degradadas. Não como consultores simbólicos. Como nós com poder real sobre as decisões de design.

Os líderes do C-Level que vão assinar contratos com a Motorola Solutions nos próximos meses deveriam exigir transparência sobre a composição dessas equipes antes de implantar o sistema. E os líderes da Motorola deveriam observar sua própria mesa diretora na próxima reunião: se todos os que decidem como este sistema é construído vêm do mesmo tipo de trajetória, do mesmo tipo de instituição e do mesmo tipo de rede, compartilham inevitavelmente os mesmos pontos cegos sobre a quem o sistema serve e a quem falha, o que os torna os primeiros responsáveis quando a falha ocorrer.

Compartilhar
0 votos
Vote neste artigo!

Comentários

...

Você também pode gostar