Más agentes de IA, más trabajo humano: la paradoja que nadie anticipó

Más agentes de IA, más trabajo humano: la paradoja que nadie anticipó

Automatizar con agentes de inteligencia artificial no libera tiempo cognitivo: lo redistribuye. El CEO de Box lo diagnostica con una precisión que la mayoría de los equipos directivos aún no ha procesado.

Clara MontesClara Montes5 de abril de 20267 min
Compartir

Más agentes de IA, más trabajo humano: la paradoja que nadie anticipó

Hay una promesa que circula en casi todas las presentaciones de producto de inteligencia artificial desde 2023: despliega suficientes agentes autónomos y tus equipos podrán, por fin, concentrarse en el trabajo que importa. La automatización haría el resto. El problema con esa promesa es que asume que el trabajo cognitivo es un volumen fijo que se puede delegar. No lo es.

Aaron Levie, CEO de Box, lo articula con una claridad que pocas voces del sector se han permitido: orchestar múltiples agentes de IA no elimina la carga cognitiva humana, simplemente la transforma. Donde antes había trabajo de ejecución, ahora hay trabajo de supervisión, coordinación y toma de decisiones sobre sistemas que operan a velocidades que el cerebro humano no puede seguir en tiempo real. El resultado neto no es menos esfuerzo. Es esfuerzo diferente, y en muchos casos, más exigente.

La ilusión del administrador liberado

Cuando una organización despliega un agente de IA para gestionar flujos de documentos, otro para analizar contratos y un tercero para monitorear cumplimiento regulatorio, la pregunta inmediata que debería hacerse el comité ejecutivo no es cuánto tiempo ahorra cada agente por separado. La pregunta correcta es quién coordina a los tres cuando sus outputs se contradicen, cuándo uno detecta una anomalía que los otros dos ignoraron, o bajo qué criterio humano se decide cuál tiene razón.

Eso no es una pregunta técnica. Es una pregunta de gobernanza, y recae sobre personas.

El patrón que describe Levie tiene una mecánica precisa: a medida que el número de agentes crece, la complejidad de su orquestación crece de forma no lineal. Dos agentes requieren una interfaz de supervisión. Cinco agentes requieren un protocolo. Veinte agentes requieren algo que se parece mucho a una estructura organizacional paralela, con sus propias jerarquías, reglas de escalamiento y métricas de desempeño. Alguien tiene que diseñar esa estructura. Alguien tiene que mantenerla. Y cuando falla, alguien tiene que rendir cuentas.

Las empresas que están descubriendo esto de forma dolorosa son precisamente aquellas que adoptaron agentes bajo la lógica de reducir headcount antes de entender qué trabajo real estaban eliminando y qué trabajo nuevo estaban creando. Compraron automatización pensando que compraban simplicidad. Obtuvieron escala con complejidad incorporada.

Lo que se automatizó no era el problema

Este es el diagnóstico que más incomoda a los equipos de producto y a los comités de transformación digital: la mayoría de las tareas que los agentes de IA ejecutan con eficiencia no eran las tareas que generaban los cuellos de botella más costosos en la organización.

Los agentes son notablemente buenos procesando volumen: clasificar documentos, extraer datos estructurados, redactar borradores bajo plantillas conocidas. Esas tareas son medibles, repetibles y fáciles de evaluar. También son, en muchos contextos, las tareas que los empleados ya habían aprendido a ejecutar con rapidez y bajo error. El trabajo que realmente consume energía ejecutiva, el que involucra juicio bajo incertidumbre, negociación entre partes con intereses contrapuestos o decisiones sin precedente claro, ese trabajo no se puede delegar a un agente. Y sin embargo, es exactamente el trabajo que se multiplica cuando hay más agentes que supervisar.

La empresa que contrata agentes de IA para liberar a sus mejores ejecutores termina, paradójicamente, con esos ejecutores dedicados a vigilar máquinas en lugar de resolver problemas de negocio. El desplazamiento ocurre, pero en dirección contraria a la prometida.

Esto no implica que la adopción de agentes sea un error de estrategia. Implica que la métrica de éxito estaba mal calibrada desde el inicio. Una empresa que mide el retorno de sus agentes en horas-hombre ahorradas está midiendo el indicador equivocado. La métrica relevante es cuánto del trabajo cognitivo de alto valor quedó desbloqueado para los humanos, no cuánto trabajo de bajo valor fue absorbido por las máquinas.

El trabajo que nadie estaba contratando

Hay un patrón de comportamiento organizacional que esta situación revela con nitidez. Cuando las empresas adoptan agentes de IA, el trabajo que declaran querer eliminar es el operativo y repetitivo. Pero el trabajo que realmente necesitan que alguien haga, y que nadie ha sabido articular con claridad hasta que el sistema falla, es el trabajo de mantener coherencia entre decisiones distribuidas en tiempo real.

Ese trabajo no tiene nombre en ningún organigrama. No está presupuestado como una función específica. Y sin embargo, cuando una cadena de agentes toma cien microdecisiones por hora en nombre de la empresa, alguien tiene que garantizar que esas decisiones sean coherentes entre sí, que no contradigan la política comercial, que no expongan a la organización a riesgo regulatorio y que, cuando el sistema cometa un error, ese error no se haya propagado cien veces antes de que alguien lo detecte.

Las organizaciones que están gestionando esto con mayor solidez no son las que desplegaron más agentes primero. Son las que invirtieron tiempo en mapear qué decisiones podían ser autónomas y cuáles requerían intervención humana antes de automatizarlas, no después. La distinción suena obvia escrita así. En la práctica, bajo la presión de los ciclos de adopción y los compromisos públicos de transformación digital, esa distinción se pospone sistemáticamente.

Levie no está argumentando contra los agentes de IA. Está señalando que la promesa de liberación cognitiva asume un modelo de trabajo que no corresponde a cómo operan las organizaciones con responsabilidades reales. El trabajo cognitivo no desaparece cuando se automatiza la ejecución: migra hacia arriba en la cadena de decisión, donde las consecuencias de equivocarse son mayores y los plazos para corregir son más cortos.

El verdadero trabajo que las empresas están contratando

El éxito o fracaso de las estrategias de agentes de IA en los próximos dos años no dependerá de cuántos agentes una empresa pueda desplegar ni de la sofisticación técnica de su arquitectura. Dependerá de si los equipos directivos comprendieron a tiempo que lo que sus organizaciones necesitaban no era automatización de tareas, sino capacidad para tomar decisiones coherentes a mayor velocidad y con menor fricción interna.

Esa es la necesidad profunda que está detrás de la adopción masiva de agentes. No es eficiencia operativa. Es velocidad de decisión con control. Y ese problema no lo resuelve ningún agente solo. Lo resuelve una arquitectura organizacional que sepa qué delegar, qué retener y quién responde cuando el sistema autónomo toma el camino equivocado.

Las empresas que contraten agentes para resolver el primer problema, la eficiencia, y descuiden el segundo, la gobernanza de decisiones distribuidas, descubrirán que escalaron su capacidad de cometer errores antes de escalar su capacidad de corregirlos.

Compartir
0 votos
¡Vota por este artículo!

Comentarios

...

También te puede interesar