L'IA générative se heurte à la limite qu'aucun dirigeant ne veut voir
Il existe un pari qui se répète dans presque tous les conseils d'administration qui parlent d'intelligence artificielle depuis deux ans : que la technologie permettra à n'importe quel professionnel d'effectuer le travail de n'importe quel autre, avec une qualité suffisante pour justifier la réorganisation des talents. C'est un pari qui semble convaincant sur le papier. Et c'est, selon de nouvelles preuves expérimentales, partiellement faux d'une manière qui a des conséquences directes sur la stratégie des ressources humaines.
Une expérience de terrain réalisée chez IG, une société fintech britannique, avec l'analyse de chercheurs de la Harvard Business School, de l'Université Stanford et du Stanford Digital Economy Lab, a mis à l'épreuve exactement cette hypothèse. Les résultats révèlent un schéma que les dirigeants qui présupposent une fongibilité totale de leur main-d'œuvre ne peuvent pas se permettre d'ignorer.
L'expérience qui a mis en lumière le fossé invisible
La conception était délibérément simple. Trois groupes d'employés ont reçu la même tâche : d'abord, conceptualiser un article pour le site web de l'entreprise (structure, mots-clés, points centraux) ; puis, rédiger l'article complet. Les groupes correspondaient à des distances de connaissances distinctes : des analystes web habitués à créer ce type de contenu, des spécialistes du marketing travaillant dans des fonctions adjacentes mais n'écrivant pas d'articles, et des spécialistes technologiques (data scientists et développeurs de logiciels) sans lien avec la création de contenu. Certains participants avaient accès aux outils d'IA générative d'IG ; d'autres, non.
Les résultats dans la phase de conceptualisation furent sans appel. Sans IA, les analystes web surpassèrent clairement les deux autres groupes. Avec l'IA, les trois groupes produisirent des conceptualisations statistiquement indiscernables. L'outil agit comme un égaliseur parfait pour le travail abstrait et structuré, celui qui suit un modèle raisonnable qu'un non-expert peut également évaluer. Jusqu'à ce point, la promesse de la technologie fut tenue.
Dans la phase d'exécution, l'histoire changea. Les spécialistes du marketing équipés d'IA parvinrent à produire des articles de qualité comparable à ceux des analystes web. Les spécialistes technologiques, disposant exactement des mêmes outils, n'y parvinrent pas. Les entretiens menés après l'expérience mirent en lumière le mécanisme : les professionnels de la technologie manquaient du modèle mental nécessaire pour juger la qualité du résultat généré. Un data scientist supprima les appels à l'action parce qu'il les jugeait inutiles. Un autre raccourcit les articles en dessous du seuil optimal pour le référencement parce qu'il préférait la concision. L'un d'eux admit, avec une honnêteté peu commune : « J'ai ajouté des éléments au hasard pour que ça ressemble davantage à du marketing ». Ce n'était pas un manque de capacité technique. C'était une distance de domaine.
Les auteurs ont nommé ce phénomène l'« effet mur de l'IA générative » : le seuil à partir duquel l'outil ne peut plus combler le fossé entre l'expert et le non-expert, quelle que soit sa sophistication.
Ce que le mur révèle sur notre façon de gérer les connaissances
La découverte la plus inconfortable ne se trouve pas dans les données de l'expérience. Elle se trouve dans la conclusion qui en découle pour l'architecture organisationnelle : pendant des années, de nombreuses entreprises ont confondu la compétence technique avec la connaissance du domaine. Et l'IA générative les aidait à maintenir cette confusion.
Les spécialistes technologiques dans l'expérience n'ont pas échoué parce qu'ils ne savaient pas utiliser les outils. Ils ont échoué parce qu'ils ne disposaient pas des critères pour évaluer si le résultat était satisfaisant. La différence entre quelqu'un qui utilise l'IA pour créer efficacement du contenu marketing et quelqu'un qui ne peut pas le faire ne réside pas dans l'interface ni dans le prompt. Elle réside dans le fait de savoir ce que signifie un article qui convertit, pourquoi le « ton commercial » a de la valeur, quelle longueur répond le mieux aux algorithmes de recherche. Cette connaissance ne se transmet pas lors d'un sprint de formation à l'IA.
Ce que l'expérience documente, en termes organisationnels, c'est que l'IA générative fonctionne efficacement sur des tâches qui suivent une logique d'abstraction structurée : esquisser, classer, organiser, générer des options dans un cadre. Sur ces tâches, l'input de l'utilisateur peut être minimal parce que l'outil dispose d'une structure suffisante pour fonctionner. L'exécution de haute qualité, en revanche, requiert ce que les chercheurs appellent la connaissance tacite : les micro-jugements qu'un professionnel effectue automatiquement sur le ton, l'emphase, le public et l'intention stratégique, et qu'il est impossible de déléguer à un outil si l'opérateur ne les possède pas lui-même.
Cela a une implication directe sur la façon dont les équipes dirigeantes pensent le retour sur investissement de leurs dépenses en IA. Si une entreprise déploie des outils sophistiqués en s'attendant à ce que sa main-d'œuvre technique ou administrative puisse absorber un travail qui appartenait auparavant à des spécialistes du marketing, de la communication ou du design, le résultat probable n'est pas l'efficacité, mais un résultat dégradé que personne dans la chaîne n'a les connaissances pour détecter. Le coût n'apparaît pas dans une métrique de productivité immédiate. Il apparaît six mois plus tard, lorsque la qualité du contenu a chuté, que le référencement s'est dégradé et que personne ne peut indiquer précisément où le problème s'est produit.
L'erreur de gestion des talents que l'efficacité dissimule
Il existe une dynamique organisationnelle sous-jacente que la recherche ne nomme pas explicitement, mais que l'expérience illustre avec précision : la tendance des dirigeants à concevoir des stratégies de talents selon une logique de réduction des coûts, plutôt que selon une logique de distance de connaissances.
Lorsqu'une entreprise décide que, grâce à l'IA, elle peut réaffecter un développeur de logiciels à la production de contenu marketing, cette décision ne passe généralement pas par une analyse du fossé de connaissances de domaine qui sépare ces deux fonctions. Elle passe par une feuille de calcul qui affiche des heures disponibles et un budget à optimiser. Le problème n'est pas la logique financière en elle-même ; le problème est que cette logique financière repose sur des hypothèses de fongibilité que l'expérience menée chez IG vient de réfuter.
Les auteurs de l'étude établissent une distinction utile pour les équipes dirigeantes : l'IA peut faciliter la mobilité entre des fonctions adjacentes, là où il existe une base de connaissances partagées, mais pas entre des fonctions distantes. Un coordinateur marketing qui migre vers la création de contenu dispose des fondements conceptuels pour évaluer le résultat généré et l'affiner. Un développeur de logiciels qui effectue le même mouvement ne les possède pas, et les outils disponibles ne les lui transmettent pas. Cette différence devrait être au cœur de toute décision de redéploiement avant qu'elle ne devienne un problème visible.
La deuxième implication, moins évidente, concerne l'affectation des budgets de formation des entreprises. La tendance dominante a été de former les équipes à l'utilisation des outils d'IA : comment structurer des prompts, comment itérer, comment intégrer les sorties dans les flux de travail. C'est nécessaire, mais insuffisant. L'étude suggère que le véritable goulot d'étranglement n'est pas la compétence technique avec l'outil, mais la connaissance du domaine qui permet de juger si le résultat est satisfaisant. Investir dans la première sans investir dans la seconde, c'est construire de la vitesse sans direction.
L'étude ouvre également une lecture plus structurelle : dans la mesure où l'IA démocratise la conceptualisation et l'idéation, le poids de la valeur se déplace vers l'exécution de haute qualité. Et cette exécution restera une fonction des connaissances accumulées, et non de la sophistication de l'interface. Les dirigeants qui le comprennent en premier réorganiseront leurs investissements en talents en conséquence. Ceux qui ne le comprennent pas continueront à mesurer l'impact de l'IA en termes de métriques d'adoption, tandis que le résultat réel se détériore silencieusement.
La maturité d'une équipe dirigeante se mesure, entre autres choses, à sa capacité à construire des organisations où les connaissances circulent de manière délibérée et où aucun résultat critique ne dépend d'une seule personne (ou d'un seul outil) pour le maintenir. Cela exige de cartographier honnêtement ce que sait chaque fonction, à quelle distance elle se trouve des autres et à quel point elle est prête à collaborer avec des systèmes qui amplifient ce qui existe déjà, mais ne peuvent pas créer à partir de rien ce qui n'est pas là. Les organisations qui parviennent à établir cette cartographie et à agir en conséquence n'auront besoin d'aucun dirigeant particulier pour les soutenir. Elles auront déjà construit le système qui leur permet de croître par elles-mêmes.










