La récente alerte de Chris Hyams, ancien PDG d'Indeed, revêt une certaine acuité : le risque associé à l'intelligence artificielle ne provient pas de la technologie en tant que telle, mais des personnes qui la promeuvent. Ce constat est essentiel. En 2025, Hyams insistait sur deux idées qui coexistaient dans un certain déséquilibre : que l'IA ne réalisait pas "des tâches complètes", mais pouvait effectuer efficacement une part significative des compétences requises dans la plupart des rôles ; et que le défi majeur consistait à la mettre en œuvre de manière responsable, car son impact sur l'emploi, le logement, l'éducation, la santé et la justice pourrait aggraver des inégalités déjà existantes.
À présent, l'attention se déplace du "comment" vers le "qui". Ce changement est un diagnostic de leadership et de conception organisationnelle : dans de nombreuses entreprises, l'IA est intégrée comme s'il s'agissait d'un simple logiciel, alors qu'elle constitue en réalité un levier qui modifie les critères, les incitations et les contrôles. Si le système de gouvernance est faible, l'IA ne fait qu'accélérer les mauvaises décisions, opaques ou à court terme. Au contraire, si le système de gouvernance est solide, l'IA se traduit par une productivité accrue, un service amélioré et moins de friction.
Quand le problème vient du conducteur, le frein n'est pas technique
Hyams connaît le marché de l'emploi de près. Indeed opère précisément à l'endroit où l'IA peut générer valeur ou préjudice rapidement : l'appariement entre personnes et opportunités. En mai 2025, il a présenté une découverte à la fois utile et facilement mal interprétable : "il n'existe pas un seul emploi" où l'IA puisse réaliser "toutes les compétences" requises, mais dans environ "deux tiers" des emplois, "50 % ou plus" des compétences sont des tâches que l'IA générative actuelle peut accomplir "de manière raisonnablement adéquate, voire très bien". Cette déclaration a une portée opérationnelle cruciale : les entreprises ne sont pas confrontées à un remplacement binaire, mais à une large part de tâches qui peuvent changer de mains.Un cadre pressé transforme cette part en un mandat de réduction des coûts. Un cadre sérieux la transforme en une refonte du travail. La différence repose sur la gouvernance : qui définit quelles tâches sont automatisées, selon quels critères, avec quelles limites, quel processus d'audit, et qui rend des comptes lorsque le système se trompe.
En janvier 2025, à Davos, Hyams a également esquissé le cadre macroéconomique qui pousse à l'accélération : "nous sommes au début d'une course" entre une main-d'œuvre en régression et les gains de productivité possibles grâce à l'IA. Il a même anticipé une compression temporelle : "30 ans de changement" pourraient se concentrer en "trois à quatre ans". Lorsque tel est le rythme, le plus grand risque n'est pas un modèle qui hallucine ; c'est une organisation qui prend des raccourcis parce que le tableau d'incitation privilégie la vitesse aux dépens du contrôle.
L'avertissement de 2026 se conforme à un schéma que je constate souvent dans les transformations : des principes et des comités sont annoncés, mais l'exécution quotidienne est capturée par des urgences trimestrielles. À ce stade, la "responsabilité" devient un document, tandis que le produit et les opérations poussent aux déploiements. La technologie ne décide pas de ce compromis ; cela est déterminé par la structure du pouvoir interne.
L'IA comme tension de portefeuille, pas comme projet IT
Dans les grandes entreprises, l'adoption de l'IA se fait généralement par deux voies. La première est l'efficacité : automatisation du support, génération de contenu, assistance aux développeurs, analytique interne. La seconde est le produit : nouvelles fonctions pour les clients, meilleures recommandations, appariement amélioré, moins de friction. Dans les deux cas, l'erreur classique est de le gouverner comme un projet IT avec une date limite et un KPI financier standard.La lecture de Hyams sur les compétences suggère quelque chose de différent : l'IA traverse à la fois le "moteur de revenus actuel" et "l'efficacité opérationnelle". Et, si cela est bien réalisé, cela ouvre la voie à "l'incubation" et à "la transformation" des capacités. Si cela est mal fait, cela ne fait que réduire les coûts à court terme et dégrade le système à long terme.
C'est pourquoi son changement d'accent est significatif. Lorsqu'un leader affirme que le risque réside chez ceux qui le promeuvent, il indique que l'échec typique n'est pas technologique, mais organisationnel : le déploiement se fait sans clarté de propriété, sans traçabilité des décisions et sans un mécanisme pratique pour stopper le système lorsqu'il cause des dommages. Et dans des secteurs comme l'emploi, la notion de "dommages" n'est pas abstraite : un filtre mal calibré peut exclure certains profils, perpétuer des biais historiques ou créer une opacité difficile à auditer.
Hyams avait déjà abordé ce point avec vigueur en qualifiant l'IA responsable comme "le sujet des droits civils et des droits humains" de sa vie, soulignant qu'en matière d'emploi, de logement, d'éducation, de santé et de justice, des inégalités profondes existent et qu'un système automatisé peut les amplifier. Cette perspective ne peut pas être résolue avec une simple liste de contrôle. Elle nécessite des décisions de portefeuille : combien de budget sont attribués au contrôle et à l'audit, combien à la rapidité du déploiement, combien à la formation, combien à la refonte des processus. Si tout est mesuré par la rentabilité immédiate, le contrôle perd toujours.
Des garde-fous sans autonomie opérationnelle mènent à une bureaucratie ornementale
Indeed a constitué une équipe IA responsable composée d'experts de divers domaines, selon Hyams, pour évaluer les systèmes et construire des technologies selon des principes d'IA responsable. L'interdisciplinarité est un bon signal. Le problème survient lorsque cette équipe est consultative, arrive trop tard dans le cycle de produit, ou n'a pas le pouvoir de stopper un déploiement.Dans les entreprises sous pression pour obtenir des résultats, l'équipe "responsable" devient un dernier inspecteur qui signe ou ne signe pas. Si l'organisation s'est déjà engagée à une date commerciale, cette signature devient cérémonielle. Et si, de plus, l'équipe est évaluée par des mesures ne reflétant pas sa mission, elle se retrouve piégée par le même système qu'elle devait équilibrer.
L'approche de Hyams en 2025 était socio-technique : comprendre les constructions sociales où s'insèrent les systèmes. Cela signifie trois choses pratiques. Premièrement, la qualité des données et leur histoire sont essentielles, car le biais ne peut pas être "réparé" par la suite. Deuxièmement, le résultat doit être explicable au niveau exigé par le contexte, notamment en ce qui concerne les décisions affectant les opportunités économiques. Troisièmement, la responsabilité doit être assignée : si un système automatise une étape de sélection, quelqu'un doit être responsable du résultat et des effets secondaires.
Lorsque Hyams se concentre maintenant sur ceux qui promeuvent l'IA, il décrit un schéma d'échecs de gouvernance plutôt qu'un manque technique. À l'entreprise moyenne ne manque pas un modèle meilleur ; elle nécessite un design décisionnel qui oblige à équilibrer vitesse, contrôle et légitimité.
La course à la productivité peut dégrader la confiance si elle n'est pas bien mesurée
La pression pour la productivité n'est pas une excuse morale, c'est une contrainte économique. Si la main-d'œuvre diminue et que la demande persiste, la tentation d'automatiser augmente. Le risque est que de nombreuses entreprises mesurent les avantages de l'IA avec des indicateurs simples et les coûts avec des indicateurs invisibles.Les avantages typiques apparaissent rapidement dans le tableau : moins de temps par ticket, moins de coût par interaction, plus de rendement dans le développement, plus de contenu produit. Les coûts critiques apparaissent souvent trop tard : plaintes pour biais, perte de confiance, dégradation de la marque employeur, exposition réglementaire, et équipes internes ne comprenant plus le processus parce qu'elles l'ont délégué à un système.
Dans le secteur de l'emploi, cette asymétrie est particulièrement sensible. Si un candidat perçoit de l'arbitraire, la plateforme perd sa réputation. Si une entreprise constate que l'appariement s'améliore ou que le processus est opaque, elle ajustera ses dépenses. L'IA peut améliorer l'appariement, mais seulement si elle est gouvernée avec discipline : objectifs clairs, évaluation continue et traçabilité.
Hyams a également anticipé qu'il y aura "10 fois" plus de personnes qui seront développeurs, même si le travail sera "irréversible" par rapport au développement actuel. Cette affirmation indique une refonte profonde du travail intellectuel. Et lorsque le travail change ainsi, l'entreprise doit redéfinir son système de performance, sa formation et sa structure de rôles. Si cela n'est pas fait, l'IA devient une couche supplémentaire sur de vieux processus, générant friction et erreurs à grande échelle.
Le leadership qui échoue ici ne le fait pas par mauvaise intention, mais parce qu'il fonctionne avec le même tableau de contrôle qu'auparavant. L'IA exige un tableau hybride : efficacité et apprentissage. Si seule l'efficacité est récompensée, la capacité à détecter les dommages tôt sera anéantie.
Un schéma opérationnel pour ne pas transformer l'IA en risque systémique
Avec les informations publiques disponibles, Hyams ne donne pas d'exemples spécifiques dans son dernier avertissement. Cependant, son parcours permet de lire le risque central comme un fossé entre principes et exécution. Dans les grandes organisations, ce fossé se réduit avec un design, pas avec des discours.D'un point de vue pratique, je vois quatre mécanismes qui séparent des adopteurs sains de ceux fragiles. Le premier est la propriété explicite : chaque système ayant un impact sur des décisions sensibles doit avoir un propriétaire commercial et un propriétaire des risques, avec une réelle autorité. Le second est l'autonomie avec des limites : les équipes qui expérimentent nécessitent de la vitesse, mais dans un cadre définissant ce qui n'est pas modifiable et ce qui est toujours audité. Le troisième est les indicateurs corrects pour la bonne étape : lors des déploiements précoces, mesurer uniquement les économies ou les conversions incite à cacher des problèmes ; il faut mesurer également la stabilité, les erreurs, les réclamations et la réversibilité. Le quatrième est la capacité de retour arrière : si un système cause des dommages, l'entreprise doit pouvoir l'éteindre ou le dégrader sans faire s'effondrer l'opération.
Cela ne constitue pas une bureaucratie supplémentaire. C'est le minimum d'ingénierie organisationnelle nécessaire pour que l'IA soit synonyme de productivité sans devenir un passif. Le point de Hyams sur "ceux qui promeuvent" l'IA est, en substance, une critique de l'adoption sans garde-fous opérationnels.
Le cas d'Indeed est pertinent car l'industrie de l'emploi est au cœur de la sensibilité sociale et réglementaire. Les entreprises qui courent après l'efficacité en ignorant le contrôle peuvent réaliser un bon trimestre et perdre leur crédibilité pendant des années. Les entreprises qui investissent dans la gouvernance et la refonte du travail peuvent capturer une productivité durable.
La viabilité dépend de la gouvernance de deux vitesses sans nuire à l'essentiel
L'IA pousse les entreprises à fonctionner à deux vitesses : maintenir l'activité actuelle avec une discipline de coûts tout en explorant en parallèle des refontes de travail et de produit à un rythme qui ressemble davantage à celui d'une startup qu'à celui d'une multinationale. L'avertissement de Hyams agit comme un rappel que le point de défaillance est rarement le modèle ; c'est le système de décisions qui l'entoure.Une organisation viable protège la cash flow de l'activité actuelle sans étouffer l'exploration, assigne une autorité claire pour stopper les déploiements lorsque le risque dépasse l'avantage, et mesure l'apprentissage précoce avec des indicateurs qui ne pénalisent pas la détection des erreurs. Cet équilibre rend durable la rentabilité actuelle tout en construisant des capacités pour l'avenir.









