La IA generativa choca contra el límite que ningún ejecutivo quiere ver
Hay una apuesta que se repite en casi toda junta directiva que lleva dos años hablando de inteligencia artificial: que la tecnología permitirá a cualquier profesional hacer el trabajo de cualquier otro, con una calidad suficiente como para justificar la reorganización del talento. Es una apuesta que se siente bien sobre el papel. Y es, según nueva evidencia experimental, parcialmente equivocada de una forma que tiene consecuencias directas para la estrategia de personas.
Un experimento de campo realizado en IG, firma fintech del Reino Unido, con análisis de investigadores de Harvard Business School, Stanford University y el Stanford Digital Economy Lab, puso a prueba exactamente esa hipótesis. Los resultados revelan un patrón que los líderes que asumen fungibilidad total de su fuerza laboral no pueden permitirse ignorar.
El experimento que expuso la brecha invisible
El diseño fue deliberadamente simple. Tres grupos de empleados recibieron la misma tarea: primero, conceptualizar un artículo para el sitio web de la empresa (estructura, palabras clave, puntos centrales); luego, ejecutar el artículo completo. Los grupos correspondían a distancias de conocimiento distintas: analistas web habituados a crear ese contenido, especialistas de marketing que trabajan en funciones adyacentes pero no escriben artículos, y especialistas tecnológicos (científicos de datos y desarrolladores de software) sin vínculo con la creación de contenido. Algunos participantes tuvieron acceso a las herramientas de IA generativa de IG; otros, no.
Los resultados en la fase de conceptualización fueron contundentes. Sin IA, los analistas web superaron a los otros dos grupos con claridad. Con IA, los tres grupos produjeron conceptualizaciones estadísticamente indistinguibles. La herramienta actuó como igualador perfecto para el trabajo abstracto y estructurado, aquel que sigue una plantilla razonable que incluso un no-experto puede evaluar. Hasta ahí, la promesa de la tecnología se cumplió.
En la fase de ejecución, la historia cambió. Los especialistas de marketing equipados con IA lograron producir artículos comparables en calidad a los de los analistas web. Los especialistas tecnológicos, con acceso exactamente a las mismas herramientas, no pudieron. Las entrevistas posteriores al experimento expusieron el mecanismo: los profesionales de tecnología carecían del modelo mental para juzgar la calidad del output generado. Un científico de datos eliminó las llamadas a la acción porque las consideró innecesarias. Otro acortó los artículos por debajo del umbral óptimo para SEO porque prefería la brevedad. Uno admitió, con honestidad poco frecuente: "Añadí cosas al azar para que pareciera más marketing". No era falta de capacidad técnica. Era distancia de dominio.
Los autores denominaron a este fenómeno el "efecto pared de la IA generativa": el umbral a partir del cual la herramienta ya no puede cerrar la brecha entre el experto y el no-experto, sin importar cuán sofisticada sea.
Lo que la pared revela sobre cómo gestionamos el conocimiento
El hallazgo más incómodo no está en los datos del experimento. Está en la conclusión que se desprende de ellos para la arquitectura organizacional: durante años, muchas empresas han confundido la habilidad técnica con el conocimiento de dominio. Y la IA generativa los estaba ayudando a sostener esa confusión.
Los especialistas tecnológicos en el experimento no fallaron porque no supieran usar las herramientas. Fallaron porque no tenían los criterios para evaluar si el output era bueno. La diferencia entre alguien que usa IA para crear contenido de marketing con efectividad y alguien que no puede hacerlo no radica en la interfaz ni en el prompt. Radica en saber qué significa un artículo que convierte, por qué el "tono de ventas" tiene valor, qué longitud responde mejor a los algoritmos de búsqueda. Ese conocimiento no se transfiere en un sprint de capacitación en IA.
Lo que el experimento documenta, en términos organizacionales, es que la IA generativa opera con eficacia sobre tareas que siguen una lógica de abstracción estructurada: esbozar, clasificar, organizar, generar opciones dentro de un marco. En esas tareas, el input del usuario puede ser mínimo porque la herramienta tiene suficiente estructura para funcionar. La ejecución de alta calidad, en cambio, requiere lo que los investigadores llaman conocimiento tácito: los juicios micro que un profesional hace de forma automática sobre tono, énfasis, audiencia e intención estratégica, y que son imposibles de delegar a una herramienta si el operador no los posee internamente.
Esto tiene una implicación directa para la forma en que los equipos directivos están pensando el retorno de sus inversiones en IA. Si una empresa despliega herramientas sofisticadas esperando que su fuerza laboral técnica o administrativa pueda absorber trabajo que antes pertenecía a especialistas de marketing, comunicación o diseño, el resultado probable no es eficiencia, sino output degradado que nadie en la cadena tiene el conocimiento para detectar. El costo no aparece en una métrica de productividad inmediata. Aparece seis meses después, cuando la calidad del contenido ha caído, el SEO se ha deteriorado y nadie puede señalar exactamente dónde ocurrió el problema.
El error de talento que la eficiencia oculta
Hay una dinámica organizacional subyacente que la investigación no nombra explícitamente pero que el experimento ilustra con precisión: la tendencia de los líderes a diseñar estrategias de talento desde la lógica de la reducción de costos, en lugar de desde la lógica de la distancia de conocimiento.
Cuando una empresa decide que, con IA, puede reasignar a un desarrollador de software a producir contenido de marketing, esa decisión generalmente no pasa por un análisis de cuánto conocimiento de dominio separa ambas funciones. Pasa por una hoja de cálculo que muestra horas disponibles y un presupuesto que quiere optimizar. El problema no es la lógica financiera; el problema es que la lógica financiera está operando sobre supuestos de fungibilidad que el experimento de IG acaba de falsificar.
Los autores del estudio plantean una distinción que resulta útil para los equipos directivos: la IA puede facilitar la movilidad entre funciones adyacentes, donde existe base de conocimiento compartida, pero no entre funciones distantes. Un coordinador de marketing que migra hacia la creación de contenido tiene el andamiaje conceptual para evaluar el output generado y refinarlo. Un desarrollador de software que hace el mismo movimiento no lo tiene, y las herramientas disponibles no se lo transfieren. Esa diferencia debería ser el eje de cualquier decisión de redespliegue antes de que se convierta en un problema visible.
La segunda implicación, menos obvia, tiene que ver con dónde invierten las empresas sus presupuestos de formación. La tendencia dominante ha sido entrenar a los equipos en el uso de herramientas de IA: cómo estructurar prompts, cómo iterar, cómo integrar las salidas en flujos de trabajo. Eso es necesario pero insuficiente. El estudio sugiere que el cuello de botella real no es la competencia técnica con la herramienta, sino el conocimiento de dominio que permite juzgar si el output es bueno. Invertir en lo primero sin invertir en lo segundo es construir velocidad sin dirección.
El estudio también abre una lectura más estructural: en la medida en que la IA democratiza la conceptualización y la ideación, el peso del valor se desplaza hacia la ejecución de alta calidad. Y esa ejecución seguirá siendo función del conocimiento acumulado, no de la sofisticación de la interfaz. Los líderes que lo entiendan antes reorganizarán sus inversiones en talento en consecuencia. Los que no lo entiendan seguirán midiendo el impacto de la IA en métricas de adopción mientras el output real se deteriora silenciosamente.
La madurez de un equipo directivo se mide, entre otras cosas, por su capacidad de construir organizaciones donde el conocimiento fluye de forma deliberada y donde ningún resultado crítico depende de que una sola persona (o una sola herramienta) lo sostenga. Eso exige mapear con honestidad qué sabe cada función, qué tan lejos está de las demás y qué tan preparada está para colaborar con sistemas que amplifican lo que ya existe, pero no pueden crear desde cero lo que no hay. Las organizaciones que logren ese mapa y actúen sobre él no necesitarán que ningún ejecutivo particular las sostenga. Ya habrán construido el sistema que las hace escalar por sí solas.










