El riesgo de la IA es un fallo de liderazgo, no de software

El riesgo de la IA es un fallo de liderazgo, no de software

La advertencia reciente de Chris Hyams, ex CEO de Indeed, tiene una precisión incómoda: el riesgo de la inteligencia artificial no viene de la tecnología, sino de quienes la están impulsando. No es un giro retórico menor.

Ignacio SilvaIgnacio Silva13 de marzo de 20266 min
Compartir

La advertencia reciente de Chris Hyams, ex CEO de Indeed, tiene una precisión incómoda: el riesgo de la inteligencia artificial no viene de la tecnología, sino de quienes la están impulsando. No es un giro retórico menor. En 2025, Hyams insistía en dos ideas que convivían con cierta tensión: que la IA no hacía “trabajos completos”, pero que sí podía ejecutar bien una parte sustancial de las habilidades dentro de la mayoría de los roles; y que el desafío central era implementar con responsabilidad, porque el impacto en empleo, vivienda, educación, salud y justicia podía amplificar inequidades existentes.

Ahora el foco se desplaza desde el “cómo” al “quién”. Y ese desplazamiento es un diagnóstico de liderazgo y de diseño organizacional: en muchas compañías, la IA se está incorporando como si fuera un paquete de software más, cuando en realidad es una palanca que altera criterios, incentivos y controles. Si el sistema de gobierno es débil, la IA solo acelera decisiones malas, opacas o cortoplacistas. Si el sistema de gobierno es sólido, la IA se vuelve productividad, mejor servicio y menos fricción.

Cuando el problema es el conductor, el freno no es técnico

Hyams conoce el mercado laboral desde el centro del tablero. Indeed opera justo donde la IA puede producir valor o daño con rapidez: el matching entre personas y oportunidades. En mayo de 2025, presentó un hallazgo tan útil como fácil de malinterpretar: “no hay un solo trabajo” donde la IA pueda hacer “todas las habilidades” requeridas, pero en alrededor de “dos tercios” de los trabajos, “50% o más” de esas habilidades son cosas que la IA generativa actual puede hacer “razonablemente bien, o muy bien”. Esa frase tiene un filo operativo: las empresas no están frente a una sustitución binaria, sino frente a una rebanada grande de tareas que pueden cambiar de manos.

Un C-Level apurado convierte esa rebanada en un mandato de reducción de costos. Un C-Level serio la convierte en rediseño del trabajo. La diferencia está en la gobernanza: quién define qué tareas se automatizan, con qué criterios, con qué límites, con qué auditoría, y quién responde cuando el sistema se equivoca.

En enero de 2025, en Davos, Hyams también dibujó el marco macroeconómico que empuja a acelerar: “estamos al inicio de una carrera” entre una fuerza laboral que se encoge y ganancias de productividad posibles por IA. Incluso anticipó compresión temporal: “30 años de cambio” podrían meterse en “tres o cuatro años”. Cuando ese es el ritmo, el mayor riesgo no es un modelo que alucina; es una organización que toma atajos porque el tablero de incentivos premia velocidad por encima de control.

La advertencia 2026 encaja con un patrón que veo a menudo en transformaciones: se anuncian principios y comités, pero la ejecución cotidiana queda capturada por urgencias trimestrales. En ese punto, la “responsabilidad” se vuelve un documento, mientras el producto y operaciones empujan despliegues. La tecnología no decide ese trade-off; lo decide la estructura de poder interna.

La IA como tensión de portafolio, no como proyecto de TI

En empresas grandes, la adopción de IA suele entrar por dos puertas. La primera es eficiencia: automatización de soporte, generación de contenido, asistencia a desarrolladores, analítica interna. La segunda es producto: funciones nuevas para clientes, mejor recomendación, mejor matching, menos fricción. En ambos casos, el error clásico es gobernarlo como un proyecto de TI con fecha de entrega y un KPI financiero estándar.

La lectura de Hyams sobre habilidades sugiere otra cosa: la IA atraviesa el “motor de ingresos actual” y la “eficiencia operativa” al mismo tiempo. Y, si se hace bien, abre espacio para “incubación” y para “transformación” de capacidades. Si se hace mal, solo recorta costos en el corto plazo y degrada el sistema en el largo plazo.

Por eso su cambio de énfasis importa. Cuando un líder dice que el riesgo está en quienes lo impulsan, está diciendo que el fracaso típico no es de laboratorio, es de línea: se despliega sin claridad de propiedad, sin trazabilidad de decisiones y sin un mecanismo práctico para detener el sistema cuando genera daño. Y en sectores como empleo, la noción de “daño” no es abstracta: un filtro mal calibrado puede excluir perfiles, perpetuar sesgos históricos o crear opacidad difícil de auditar.

Hyams ya había tratado ese punto con contundencia al calificar la IA responsable como “el tema de derechos civiles y derechos humanos” de su vida, y al señalar que en empleo, vivienda, educación, salud y justicia existen inequidades profundas que un sistema automatizado puede amplificar. Esa mirada no se resuelve con un checklist. Se resuelve con decisiones de portafolio: cuánto presupuesto va a control y auditoría, cuánto a velocidad de despliegue, cuánto a capacitación, cuánto a rediseño de procesos. Si todo se mide con rentabilidad inmediata, el control siempre pierde.

Guardrails sin autonomía operativa terminan en burocracia ornamental

Indeed formó un equipo de IA responsable con expertos de campos diversos, según Hyams, para evaluar sistemas y construir tecnología bajo principios de IA responsable. La interdisciplinariedad es una señal correcta. El problema aparece cuando ese equipo es consultivo, llega tarde al ciclo de producto, o no tiene poder para frenar un despliegue.

En empresas con presión por resultados, el “equipo responsable” se convierte en un revisor final que firma o no firma. Si la organización ya comprometió una fecha comercial, esa firma se vuelve ceremonial. Y si además el equipo es evaluado con métricas que no reflejan su misión, queda capturado por el mismo sistema que debía equilibrar.

El enfoque de Hyams de 2025 era socio-técnico: entender los constructos sociales donde se insertan los sistemas. Esa frase, aterrizada, significa tres cosas prácticas. Primero, la calidad del dato y su historia importan, porque el sesgo no se “arregla” después. Segundo, el output debe ser explicable al nivel que exija el contexto, especialmente en decisiones que afectan oportunidades económicas. Tercero, la rendición de cuentas tiene que estar asignada: si un sistema automatiza una etapa de selección, alguien debe ser dueño del resultado y de los efectos colaterales.

Cuando Hyams ahora apunta a quienes impulsan la IA, está describiendo un patrón de fallas de gobernanza más que una carencia de técnica. A la empresa promedio no le falta un modelo mejor; le falta un diseño de decisiones que obligue a equilibrar velocidad, control y legitimidad.

La carrera por productividad puede degradar la confianza si no se mide bien

La presión por productividad no es una excusa moral, es una restricción económica. Si la fuerza laboral se reduce y la demanda sigue, la tentación de automatizar crece. El riesgo es que muchas compañías miden los beneficios de la IA con indicadores fáciles y los costos con indicadores invisibles.

Los beneficios típicos entran rápido en el tablero: menos tiempo por ticket, menos costo por interacción, más throughput en desarrollo, más contenido producido. Los costos críticos suelen aparecer tarde: quejas por sesgo, pérdida de confianza, degradación de marca empleadora, exposición regulatoria, y equipos internos que dejan de entender el proceso porque lo delegaron a un sistema.

En el mundo de empleo, esa asimetría es especialmente sensible. Si un candidato percibe arbitrariedad, la plataforma pierde reputación. Si una empresa percibe que el matching empeora o que el proceso es opaco, ajusta su gasto. La IA puede mejorar el matching, pero solo si está gobernada con disciplina: objetivos claros, evaluación continua y trazabilidad.

Hyams también anticipó que habrá “10 veces” más personas que serán coders, aunque el trabajo será “irreconocible” respecto del desarrollo actual. Esa afirmación apunta a un rediseño profundo del trabajo del conocimiento. Y cuando el trabajo cambia así, la empresa tiene que rediseñar su sistema de desempeño, su capacitación y su estructura de roles. Si no lo hace, la IA se convierte en una capa adicional sobre procesos viejos, generando fricción y errores a escala.

El liderazgo que falla aquí no falla por mala intención, falla por operar con el mismo tablero de control que usaba antes. La IA exige un tablero mixto: eficiencia y aprendizaje. Si solo se premia eficiencia, se mata la capacidad de detectar daño temprano.

Un patrón operativo para no convertir la IA en riesgo sistémico

Con la información pública disponible, Hyams no detalla ejemplos específicos en su advertencia más reciente. Aun así, su trayectoria permite leer el riesgo central como una brecha entre principios y ejecución. En organizaciones grandes, esa brecha se reduce con diseño, no con discursos.

En términos prácticos, veo cuatro mecanismos que separan adopciones sanas de adopciones frágiles. El primero es propiedad explícita: cada sistema con impacto en decisiones sensibles debe tener un dueño de negocio y un dueño de riesgo, con autoridad real. El segundo es autonomía con límites: los equipos que experimentan necesitan velocidad, pero dentro de un marco que fije qué no se toca y qué se audita siempre. El tercero es métricas correctas para etapa correcta: en despliegues tempranos, medir solo ahorro o conversión empuja a ocultar problemas; hay que medir también estabilidad, error, reclamaciones y reversibilidad. El cuarto es capacidad de reversa: si un sistema produce daño, la empresa debe poder apagarlo o degradarlo sin colapsar la operación.

Esto no es burocracia extra. Es la mínima ingeniería organizacional para que la IA sea productividad sin convertirse en pasivo. El punto de Hyams sobre “quienes impulsan” la IA es, en el fondo, una crítica a la adopción sin frenos operativos.

El caso Indeed es relevante porque la industria de empleo está en el centro de la sensibilidad social y regulatoria. Las empresas que corran por eficiencia ignorando control pueden ganar un trimestre y perder confianza por años. Las empresas que inviertan en gobernanza y rediseño del trabajo pueden capturar productividad sostenida.

La viabilidad depende de gobernar dos velocidades sin romper el core

La IA está empujando a las compañías a operar con dos velocidades: sostener el negocio actual con disciplina de costos y, al mismo tiempo, explorar rediseños de trabajo y producto a un ritmo que se parece más a una startup que a una corporación. La advertencia de Hyams funciona como recordatorio de que el punto de fallo rara vez es el modelo; es el sistema de decisiones que lo rodea.

Una organización viable protege la caja del motor actual sin asfixiar la exploración, asigna autoridad clara para frenar despliegues cuando el riesgo supera el beneficio, y mide aprendizaje temprano con métricas que no castigan la detección de errores. Ese balance hace sostenible la rentabilidad presente mientras se construye capacidad para escalar el futuro.

Compartir
0 votos
¡Vota por este artículo!

Comentarios

...

También te puede interesar