Les emplois les mieux rémunérés sont les plus exposés à l'IA. Les dirigeants n'ont pas encore pris conscience
Le 15 mars 2026, Andrej Karpathy — cofondateur d'OpenAI et ancien chercheur en intelligence artificielle chez Tesla — a publié ce qu'il a décrit comme un projet de "deux heures un samedi matin" : une carte interactive qui attribuait des scores d'exposition à l'IA à 342 professions du Département du Travail des États-Unis. L'échelle allait de 0 à 10. Les emplois physiques, comme les couvreurs ou les ouvriers du bâtiment, se situaient entre 0 et 1. Les développeurs de logiciels, analystes financiers, avocats, écrivains et mathématiciens se regroupaient entre 9 et 10. Le projet a été supprimé quelques heures plus tard, Karpathy affirmant qu'il avait été "sauvagement mal interprété". Mais la carte avait déjà circulé, et les données qu'elle avait mises sur la table n'avaient pas disparu avec elle.
Le constat central n’est pas que l’IA menace les emplois. Cela, nous le savions déjà. Ce que Karpathy a rendu visible, avec une visualisation que n'importe quel cadre pouvait lire en trente secondes, est la correlation directe entre salaire et vulnérabilité : les postes générant plus de 100 000 dollars par an ont affiché un score d'exposition moyen de 6,7, le plus élevé parmi tous les niveaux de salaire analysés. Ceux qui gagnent moins de 35 000 dollars ont enregistré une moyenne de 3,4. Environ 60 millions d'emplois américains ont été marqués comme hautement exposés, avec des salaires annuels agrégés proches de 3,7 billions de dollars.
Ce n'est pas une statistique des ressources humaines. C’est un signal concernant l'architecture organisationnelle.
La carte que personne ne voulait lire à haute voix
La première chose à comprendre sur l'analyse de Karpathy est qu'elle n'était pas conçue comme une condamnation. Il l'a lui-même décrite comme un outil d'exploration, inspiré par un livre qu'il lisait, destiné à aider les autres à visualiser les données du Bureau of Labor Statistics d'une manière différente. Ce n'était ni un modèle prédictif, ni une feuille de route pour des licenciements massifs. C'était, selon ses propres mots, une expérience de week-end.
Cependant, la réaction qu'elle a suscitée a été démesurée précisément parce qu'elle a touché quelque chose que les organisations s'efforcent d'éviter de nommer avec précision : les fonctions ayant le plus haut degré de hiérarchie intellectuelle et de rémunération sont exactement celles que les modèles de langage à grande échelle répliquent plus facilement. Analyse de données, rédaction structurée, révisions légales, modélisation financière, génération de code. Toutes des activités à l'écran, toutes séquentielles, toutes documentées, toutes formables.
Elon Musk a répondu le même jour sur X avec sa prédiction habituelle : “Tous les emplois seront optionnels. Il y aura un revenu universel élevé.” La phrase est connue. Musk l'a répétée depuis divers contextes, y compris une publication de décembre 2025 sur l'abondance générée par des robots et de l'IA. Ce qui ressort stratégiquement n'est pas de savoir si Musk a raison dans son horizon utopique, mais que sa réponse à la carte de Karpathy était immédiate et sans nuance, ce qui en dit long sur l'état du débat exécutif plutôt que sur l’IA elle-même : le niveau de direction oscille entre le fatalisme de "tout va changer" et la négation de "cela n'affecte pas notre cœur de métier".
Aucune des deux positions n'est une stratégie. Les deux sont des formes d'inaction décisionnelle.
Le problème n'est pas l'automatisation. C'est la paralysie sélective
L'étude d'Anthropic publiée début mars 2026 — quelques semaines avant la carte de Karpathy — a apporté une dimension supplémentaire que de nombreux médias ont négligée : les travailleurs les plus exposés à l'IA tendent à être plus âgés, mieux éduqués, mieux rémunérés et, dans de nombreux secteurs, des femmes. Et bien qu'aucune augmentation systématique du chômage n'ait été enregistrée depuis fin 2022, une ralentissement de l'embauche de travailleurs jeunes dans des rôles à haute exposition a été détecté. Ce n’est pas un licenciement massif. C'est un remplacement silencieux par le biais de non-remplacement des postes vacants.
Cette distinction importe plus qu'il n'y paraît. Une entreprise qui cesse d'embaucher des analystes juniors parce que ses modèles d'IA traitent les mêmes rapports ne réalise pas une réduction visible. Elle est en train de réorganiser sa pyramide de talents sans le déclarer comme une politique officielle. Et cela a des conséquences organisationnelles à moyen terme que peu de conseils d'administration mesurent : érosion de la pépinière interne, concentration des connaissances dans des couches seniors sans relève formée, et dépendance croissante aux outils que aucune équipe interne ne comprend en profondeur.
Citadel Securities a rapporté une croissance de 11 % en demande d'ingénieurs logiciels en 2026, ce qui suggère que l'automatisation ne s'effondre pas immédiatement sur des marchés du travail spécifiques. Mais ce chiffre coexiste avec celui d'Anthropic sans réelle contradiction : la demande de profils seniors persiste tandis que la formation des nouvelles générations dans ces rôles ralentit. Le marché continue d'acheter le produit fini ; il cesse d'investir dans la chaîne d'approvisionnement qui le produit.
Pour un CFO qui regarde le trimestre, cela semble efficace. Pour un CEO qui considère l'entreprise dans cinq ans, c’est une manière de cannibaliser les capacités futures.
Ce que la carte de Karpathy exige du C-Level aujourd'hui
Il y a une tentation compréhensible de lire l'analyse d'exposition à l'IA comme un problème de talent ou de technologie. Ce n’est pas le cas. C'est un problème d'allocation des ressources et de définition des enjeux. Lorsque les postes qui concentrent le plus de capital intellectuel au sein d’une organisation sont simultanément les plus facilement réplicables par des modèles de langage, la question que doit se poser le leadership n'est pas "quand automatisons-nous ?", mais "dans quelles dimensions du travail humain allons-nous construire un avantage qui ne soit pas automatisable".
C’est une décision qui implique un véritable sacrifice. Elle implique de cesser d'investir dans des processus que l'IA peut exécuter à fraction du coût et de rediriger ces ressources vers des capacités que les modèles actuels ne peuvent pas atteindre : un jugement sous forte ambiguïté, une confiance relationnelle construite dans le temps, un leadership dans des contextes de grande incertitude, la conception de cadres où les modèles d'IA eux-mêmes n'ont pas suffisamment de données d'entraînement. Ce ne sont pas des fonctions romantiques. Ce sont des fonctions qu'aucun modèle de langage de 2026 n'exécute de manière cohérente sans supervision humaine significative.
Les organisations qui continuent d'assigner leur meilleur talent à des tâches qu'un modèle peut compléter en quelques secondes ne sont pas prudentes. Elles paient le prix d'un actif stratégique pour ce qui devient une marchandise. Et le marché finit par ajuster ce différentiel, avec ou sans préavis.
La moyenne d'exposition dans tous les emplois analysés était de 5,3 sur 10. Ce n'est pas un apocalypse, mais ce n'est pas non plus un confort. C'est le signal d'une transition qui a déjà commencé et qui n'attend pas que le prochain cycle budgétaire la prenne en compte.
La discipline qui sépare les organisations qui naviguent dans cette transition de celles qui en souffrent n'est pas la vitesse d'adoption technologique. C'est la clarté pour décider, sans ambiguïté, quelles fonctions vont être protégées en tant que source d'avantage différentiel et lesquelles vont être délibérément confiées à l’automatisation. Faire les deux à moitié, par peur des implications de choisir, est le seul pari qui garantit l'irrélevance.









