Plus d'agents d'IA, plus de travail humain : la paradoxe inattendu

Plus d'agents d'IA, plus de travail humain : la paradoxe inattendu

Automatiser avec des agents d'intelligence artificielle ne libère pas le temps cognitif : cela le redistribue. Le PDG de Box tire ce constat avec une précision que peu d'équipes anticipent.

Clara MontesClara Montes5 avril 20267 min
Partager

Plus d'agents d'IA, plus de travail humain : la paradoxe inattendu

Il existe une promesse récurrente dans presque toutes les présentations de produits d'intelligence artificielle depuis 2023 : déployez suffisamment d'agents autonomes et vos équipes pourront enfin se concentrer sur le travail qui compte. L'automatisation s'occuperait du reste. Le problème avec cette promesse est qu'elle suppose que le travail cognitif est un volume fixe pouvant être délégué. Ce n'est pas le cas.

Aaron Levie, PDG de Box, l'exprime avec une clarté que peu d'intervenants du secteur ont osé aborder : orchestre de multiples agents d'IA n'élimine pas la charge cognitive humaine, elle la transforme simplement. Là où il y avait auparavant un travail d'exécution, il y a maintenant un travail de supervision, de coordination et de prise de décision sur des systèmes qui fonctionnent à des vitesses que le cerveau humain ne peut suivre en temps réel. Le résultat net n'est pas moins d'effort. C'est un effort différent, et dans de nombreux cas, plus exigeant.

L'illusion du manager libéré

Lorsque qu'une organisation déploie un agent d'IA pour gérer des flux de documents, un autre pour analyser des contrats, et un troisième pour surveiller la conformité réglementaire, la question immédiate que devrait se poser le comité exécutif n'est pas combien de temps chaque agent économise individuellement. La question appropriée est qui coordonne les trois quand leurs résultats se contredisent, quand l'un détecte une anomalie que les deux autres ignorent, ou selon quels critères humains il est décidé qui a raison.

Ce n'est pas une question technique. C'est une question de gouvernance, et cela repose sur des personnes.

Le schéma que décrit Levie a une mécanique précise : à mesure que le nombre d'agents augmente, la complexité de leur orchestration croît de manière non linéaire. Deux agents nécessitent une interface de supervision. Cinq agents exigent un protocole. Vingt agents requièrent quelque chose qui ressemble davantage à une structure organisationnelle parallèle, avec ses propres hiérarchies, règles d'escalade et métriques de performance. Quelqu'un doit concevoir cette structure. Quelqu'un doit l'entretenir. Et lorsqu'elle échoue, quelqu'un doit rendre des comptes.

Les entreprises qui découvrent cela douloureusement sont précisément celles qui ont adopté des agents sous la logique de réduire les effectifs avant de comprendre quel travail réel elles éliminaient et quel nouveau travail elles créaient. Elles ont acheté l'automatisation en pensant qu'elles achetaient la simplicité. Elles ont obtenu une échelle avec une complexité intégrée.

Ce qui a été automatisé n'était pas le problème

Voici le diagnostic qui dérange le plus les équipes produits et les comités de transformation numérique : la plupart des tâches que les agents d'IA exécutent avec efficacité n'étaient pas les tâches qui généraient les goulets d'étranglement les plus coûteux dans l'organisation.

Les agents sont remarquablement efficaces pour traiter des volumes : classer des documents, extraire des données structurées, rédiger des brouillons selon des modèles connus. Ces tâches sont mesurables, répétables et faciles à évaluer. Elles sont également, dans de nombreux contextes, des tâches que les employés avaient déjà appris à exécuter rapidement et sans erreur. Le travail qui consomme réellement de l'énergie exécutive, celui qui implique un jugement en situation d'incertitude, des négociations entre parties aux intérêts opposés ou des décisions sans précédent clair, ce travail ne peut pas être délégué à un agent. Et pourtant, c'est exactement le travail qui se multiplie lorsque de nombreux agents sont à superviser.

L'entreprise qui embauche des agents d'IA pour libérer ses meilleurs acteurs finit, paradoxalement, par voir ces acteurs consacrés à surveiller des machines au lieu de résoudre des problèmes d'affaires. Le déplacement se produit, mais dans la direction opposée à celle promise.

Cela ne signifie pas que l'adoption d'agents soit une erreur stratégique. Cela implique que la métrique de succès a été mal calibrée dès le départ. Une entreprise qui mesure le retour sur investissement de ses agents en heures de travail économisées mesure le mauvais indicateur. La métrique pertinente est combien de travail cognitif de haute valeur a été débloqué pour les humains, et non combien de travail de faible valeur a été absorbé par les machines.

Le travail que personne n'embauchait

Un schéma de comportement organisationnel que cette situation révèle avec clarté. Lorsque les entreprises adoptent des agents d'IA, le travail qu'elles déclarent vouloir éliminer est celui qui est opérationnel et répétitif. Mais le travail dont elles ont réellement besoin qu'il soit effectué, et que personne n'a su articuler clairement jusqu'à ce que le système échoue, est le travail de maintenir la cohérence entre des décisions distribuées en temps réel.

Ce travail n'a de nom dans aucun organigramme. Il n'est pas budgétisé comme une fonction spécifique. Et pourtant, lorsque une chaîne d'agents prend cent micro-décisions par heure au nom de l'entreprise, quelqu'un doit s'assurer que ces décisions sont cohérentes entre elles, qu'elles ne contredisent pas la politique commerciale, qu'elles n'exposent pas l'organisation à un risque réglementaire et que, lorsque le système commet une erreur, cette erreur ne s'est pas propagée des centaines de fois avant que quelqu'un ne le détecte.

Les organisations qui gèrent cela avec la plus de solidité ne sont pas celles qui ont déployé le plus d'agents en premier. Ce sont celles qui ont investi du temps à cartographier quelles décisions pouvaient être autonomes et lesquelles nécessitaient une intervention humaine avant de les automatiser, et non après. La distinction semble évidente ainsi écrite. En pratique, sous la pression des cycles d'adoption et des engagements publics de transformation numérique, cette distinction est systématiquement reportée.

Levie ne s'oppose pas aux agents d'IA. Il souligne que la promesse de libération cognitive suppose un modèle de travail qui ne correspond pas à la façon dont les organisations avec des responsabilités réelles fonctionnent. Le travail cognitif ne disparaît pas lorsque l'exécution est automatisée : il migre vers le haut de la chaîne décisionnelle, où les conséquences d'une erreur sont plus grandes et les délais pour corriger sont plus courts.

Le véritable travail que les entreprises engagent

Le succès ou l'échec des stratégies d'agents d'IA au cours des deux prochaines années ne dépendra pas de combien d'agents une entreprise peut déployer ni de la sophistication technique de son architecture. Cela dépendra de savoir si les équipes dirigeantes ont compris à temps que ce dont leurs organisations avaient besoin n'était pas une automatisation des tâches, mais une capacité à prendre des décisions cohérentes plus rapidement et avec moins de friction interne.

C'est ce besoin fondamental qui se cache derrière l'adoption massive d'agents. Ce n'est pas l'efficacité opérationnelle. C'est la vitesse de décision avec contrôle. Et ce problème ne peut pas être résolu par un agent seul. Il se résout par une architecture organisationnelle qui sait quoi déléguer, quoi conserver et qui est responsable lorsque le système autonome prend le mauvais chemin.

Les entreprises qui engagent des agents pour résoudre le premier problème, l'efficacité, et négligent le second, la gouvernance des décisions distribuées, découvriront qu'elles ont élargi leur capacité à commettre des erreurs avant d'élargir leur capacité à les corriger.

Partager
0 votes
Votez pour cet article !

Commentaires

...

Vous pourriez aussi aimer