Los empleos mejor pagados son los más expuestos a la IA. Los líderes aún no procesaron eso
El 15 de marzo de 2026, Andrej Karpathy —cofundador de OpenAI y exinvestigador de inteligencia artificial en Tesla— publicó lo que describió como un proyecto de «dos horas un sábado por la mañana»: un mapa interactivo que asignaba puntuaciones de exposición a IA a 342 ocupaciones del Departamento de Trabajo de Estados Unidos. La escala iba del 0 al 10. Los trabajos físicos, como techadores o peones de construcción, rondaban el 0 o el 1. Los desarrolladores de software, analistas financieros, abogados, escritores y matemáticos se agrupaban entre el 9 y el 10. El proyecto se borró horas después, con Karpathy alegando que había sido «salvajemente malinterpretado». Pero el mapa ya había circulado. Y los datos que dejó sobre la mesa no desaparecieron con él.
El hallazgo central no es que la IA amenace empleos. Eso ya lo sabíamos. Lo que Karpathy hizo visible, con una visualización que cualquier ejecutivo podía leer en treinta segundos, es la correlación directa entre salario y vulnerabilidad: los puestos que generan más de 100.000 dólares anuales promediaron una puntuación de exposición de 6.7, la más alta entre todos los rangos salariales analizados. Los que ganan menos de 35.000 dólares promediaron 3.4. Aproximadamente 60 millones de empleos estadounidenses fueron marcados como altamente expuestos, con salarios anuales agregados cercanos a los 3.7 billones de dólares.
Esa no es una estadística de recursos humanos. Es una señal de arquitectura organizacional.
El mapa que nadie quería leer en voz alta
Lo primero que hay que entender sobre el análisis de Karpathy es que no fue diseñado como una sentencia. Él mismo lo describió como una herramienta exploratoria, inspirada en un libro que estaba leyendo, pensada para que otros visualizaran datos del BLS de forma distinta. No era un modelo predictivo ni una hoja de ruta de despidos masivos. Era, en sus palabras, un experimento de fin de semana.
Sin embargo, la reacción que desató fue desproporcionada precisamente porque tocó algo que las organizaciones llevan años evitando nombrar con precisión: las funciones de mayor jerarquía intelectual y remuneración son exactamente las que los modelos de lenguaje de gran escala replican con mayor facilidad. Análisis de datos, redacción estructurada, revisión legal, modelado financiero, generación de código. Todas actividades de pantalla, todas secuenciales, todas documentadas, todas entrenables.
Elon Musk respondió ese mismo día en X con su predicción habitual: «Todos los empleos serán opcionales. Habrá ingreso universal alto». La frase es conocida. Musk la ha repetido desde distintos escenarios, incluida una publicación de diciembre de 2025 sobre abundancia impulsada por robots y IA. Lo que resulta relevante estratégicamente no es si Musk tiene razón en su horizonte utópico, sino que su respuesta al mapa de Karpathy fue inmediata y sin matices, lo cual dice más sobre el estado del debate ejecutivo que sobre la IA en sí misma: el C-Level oscila entre el fatalismo de «todo cambiará» y la negación de «eso no afecta nuestro core business».
Ninguna de las dos posiciones es estrategia. Ambas son formas de no decidir.
El problema no es la automatización. Es la parálisis selectiva
El estudio de Anthropic publicado a principios de marzo de 2026 —semanas antes del mapa de Karpathy— aportó una dimensión adicional que muchos medios pasaron por alto: los trabajadores más expuestos a la IA tienden a ser mayores, con mayor nivel educativo, mejor remunerados y, en muchos sectores, mujeres. Y aunque no se registró un incremento sistemático de desempleo desde finales de 2022, sí se detectó una desaceleración en la contratación de trabajadores jóvenes en roles de alta exposición. No es despido masivo. Es sustitución silenciosa por la vía de no reemplazar vacantes.
Esa distinción importa más de lo que parece. Una empresa que deja de contratar analistas junior porque sus modelos de IA procesan los mismos reportes no está haciendo un recorte visible. Está recomponiendo su pirámide de talento sin declararlo como política. Y eso tiene consecuencias organizacionales de mediano plazo que pocas juntas directivas están midiendo: erosión de la cantera interna, concentración de conocimiento en capas sénior sin relevo formado, y dependencia creciente de herramientas que ningún equipo interno comprende a profundidad.
Citadel Securities reportó un crecimiento del 11% interanual en demanda de ingenieros de software en 2026, lo que sugiere que la automatización no está colapsando mercados laborales específicos de forma inmediata. Pero ese dato coexiste con el de Anthropic sin contradicción real: la demanda de perfiles senior persiste mientras la formación de nuevas generaciones en esos roles se ralentiza. El mercado sigue comprando el producto terminado; está dejando de invertir en la cadena de suministro que lo produce.
Para un CFO que mira el trimestre, eso parece eficiencia. Para un CEO que mira la empresa en cinco años, es una forma de canibalizar capacidades futuras.
Lo que el mapa de Karpathy exige del C-Level hoy
Hay una tentación comprensible de leer el análisis de exposición a IA como un problema de talento o de tecnología. No lo es. Es un problema de asignación de recursos y de definición de apuestas. Cuando los puestos que concentran el mayor capital intelectual de una organización son simultáneamente los más replicables por modelos de lenguaje, la pregunta que debe responder el liderazgo no es «¿cuándo automatizamos?», sino «¿en qué dimensiones del trabajo humano vamos a construir ventaja que no sea automatizable».
Esa es una decisión que implica sacrificio real. Implica dejar de invertir en procesos que la IA puede ejecutar a fracción del costo y redirigir esos recursos hacia capacidades que los modelos actuales no alcanzan: criterio bajo ambigüedad severa, confianza relacional construida en el tiempo, liderazgo en contextos de alta incertidumbre, diseño de marcos donde los propios modelos de IA no tienen datos de entrenamiento suficientes. No son funciones románticas. Son funciones que ningún modelo de lenguaje de 2026 ejecuta de forma consistente sin supervisión humana significativa.
Las organizaciones que sigan asignando su mejor talento a tareas que un modelo puede completar en segundos no están siendo prudentes. Están pagando precio de activo estratégico por lo que se está convirtiendo en commodity. Y el mercado eventualmente ajusta ese diferencial, con o sin aviso.
El promedio de exposición en todos los empleos analizados fue de 5.3 sobre 10. No es apocalipsis, pero tampoco es margen cómodo. Es la señal de una transición que ya comenzó y que no espera a que el próximo ciclo presupuestario lo contemple.
La disciplina que separa a las organizaciones que navegan esta transición de las que la sufren no es la velocidad de adopción tecnológica. Es la claridad para decidir, sin ambigüedad, qué funciones van a proteger como fuente de ventaja diferencial y cuáles van a entregar deliberadamente a la automatización. Hacer ambas cosas a medias, por temor a las implicaciones de elegir, es la única apuesta que garantiza irrelevancia.









