LinkedIn a proposé une idée simple et puissante : si un profil professionnel affiche un badge d'identité vérifiée, le reste du marché peut faire preuve d'un peu plus de confiance. À l'échelle de la plateforme, ce "signal" a de la valeur : il réduit la fraude, diminue la friction commerciale, améliore l'expérience utilisateur et protège le cœur de l'activité.
Le problème survient lorsque la vérification cesse d'être un simple geste visuel pour devenir une chaîne opérationnelle impliquant des tiers, des flux de données sensibles et des critères de consultation que l'utilisateur ne perçoit pas. Un article de Forbes a mis en lumière le partenaire technologique que LinkedIn utilise pour vérifier les identités en dehors des États-Unis, du Canada, du Mexique et de l'Inde : #F5F5F5]">Persona. Selon le rapport, un expert en sécurité a analysé les termes et notes du processus après avoir vérifié son identité avec un passeport, et a conclu que le système pourrait nécessiter des croisements étendus avec de multiples sources et sous-traitants, ce qui soulève la question de la vie privée et de la surveillance. [Lien Forbes
Du côté de Persona, son PDG, Rick Song, a nié que des informations soient traitées à d'autres fins que celles de confirmer l'identité, affirmant qu'elles ne sont pas utilisées pour entraîner l'IA, et décrivant des politiques de suppression de données, incluant la suppression immédiate des données biométriques et de toutes les autres dans un délai de 30 jours, comme rapporté dans le même contexte. Lien Forbes
Jusqu'ici, le débat semble porter sur la vie privée. En pratique, c'est un sujet plus délicat pour les dirigeants : il s'agit de conception organisationnelle et de gouvernance du portefeuille. LinkedIn a pris une fonction critique pour son activité (la confiance dans les identités) et la met en œuvre par un modèle multi-fournisseur géographique. Ce modèle peut être excellent pour se développer rapidement, mais il exige une discipline interne que de nombreuses entreprises sous-estiment : contrôler les risques des tiers avec le même soin que celui avec lequel elles gèrent leurs propres produits.
La signal de confiance a déjà grandi, la surveillance est à la traîne
LinkedIn rapporte 100 millions de vérifications via son programme, additionnant tous ses partenaires. Ce chiffre est clé car il décrit l'ampleur opérationnelle et l'exposition réputationnelle : même si un faible pourcentage d'utilisateurs se sent lésé par le traitement de leurs données, la narration publique peut rapidement devenir négative, surtout lorsque des éléments sensibles comme la vérification par des documents gouvernementaux et des données biométriques sont impliquées.
L'architecture décrite dans les rapports est géographique : Clear pour les États-Unis, le Canada et le Mexique ; DigiLocker pour l'Inde ; et Persona pour la grande majorité du reste du monde. Cette approche est cohérente avec une priorité d'exploitation de l'activité actuelle : maximiser l'adoption tout en minimisant la friction locale, en utilisant des prestataires qui résolvent déjà des enjeux de conformité et d'expérience mobile. Sur le plan opérationnel, c'est une décision qui réduit le délai de mise sur le marché et évite de construire un système de vérification global depuis le début.
Le coût apparaît ailleurs : le "signal de confiance" devient aussi fort que le maillon le moins visible. Le rapport cité par Forbes mentionne que Persona peut collecter et traiter des données de passeport via NFC, en plus de données contextuelles telles que l'adresse IP et la géolocalisation, et que de nombreux croisements existent avec d'autres sources et l'utilisation de sous-traitants, selon l'analyse de l'expert. Lien Forbes
Même si certaines de ces affirmations sont ensuite nuancées par la configuration des produits, le dommage est déjà fait : l'utilisateur perçoit "LinkedIn m'a vérifié", mais le système dit "LinkedIn a délégué la vérification et sa chaîne de fournisseurs a traité mes données". Cet écart entre la perception et la réalité devient un risque réputationnel.
D'un point de vue de portefeuille, cela représente une collision classique entre le moteur de revenus actuel (protéger le réseau contre la fraude) et une expansion touchant des thèmes sensibles (identité numérique mondiale). Lorsque l'entreprise croît, l'instinct d'efficacité pousse à la sous-traitance. La confiance, cependant, ne peut être sous-traitée sans coût : l'opération est sous-traitée, mais la responsabilité réputationnelle demeure en interne.
Sous-traiter l'identité exige un système de contrôle, pas seulement un contrat
La valeur d'un badge dépend de sa crédibilité. Pour qu'il soit crédible, il doit être difficile à falsifier et facile à comprendre. La première exigence pousse à des vérifications plus approfondies ; la seconde nécessite transparence et limites claires. Le conflit surgit lorsque l'organisation se focalise sur le résultat (moins de bots, moins de fraude) mais n'investit pas suffisamment dans le système de contrôle du fournisseur.
Un fournisseur de vérification sérieux opère avec des sous-traitants et des sources de consultation. Le but n'est pas de diaboliser cette pratique, mais de comprendre qu'en matière d'identité numérique, le risque n'est pas binaire. Il existe des gradients :
- Risque de collecte excessive : demander plus de données que nécessaire pour l'utilisation prévue.
- Risque d'opacité : l'utilisateur ne distingue pas ce que fait LinkedIn et ce que fait le tiers.
- Risque de dérive fonctionnelle : des processus conçus pour "vérifier" qui finissent par sembler "profiler", même si ce n'est pas l'intention déclarée.
- Risque d'asimétrie géographique : les utilisateurs situés en dehors des marchés centraux sont soumis à des fournisseurs différents, avec des perceptions de légitimité distinctes.
Dans le cas décrit par Forbes, le débat s'est intensifié autour de l'idée de vérifications croisées extensives et des mentions de listes de surveillance fédérales dans le contexte de l'analyse de l'expert. Lien Forbes
La réponse publique de Rick Song, également rapportée dans l'écosystème de la nouvelle, illustre le type de friction qu'une plateforme comme LinkedIn doit anticiper : défense de la limitation de l'objectif, refus d'utilisation pour l'entraînement d'IA et politiques de conservation limitées. Lien Forbes
D'un point de vue gestion, cela se traduit par une exigence concrète : un contrat ne suffit pas. Ce qui est nécessaire, c'est un système d'audit et de surveillance continue, avec des preuves opérationnelles. Non seulement "nous sommes conformes", mais "nous pouvons démontrer quelles données sont capturées, pourquoi, pour combien de temps, et qui les traite". L'organisation qui gagne en confiance est celle qui peut expliquer sa chaîne d'approvisionnement numérique avec le même soin qu'elle explique sa comptabilité.
Innovation utile et KPI erroné : adoption sans friction versus légitimité
La vérification de l'identité est une innovation appliquée : ce n'est pas un laboratoire, c'est un mécanisme de protection du marché où s'échangent des opportunités professionnelles et commerciales. Son KPI naturel à court terme est l'adoption : combien de personnes se vérifient, à quelle vitesse, combien de friction est éliminée. LinkedIn peut déjà montrer une échelle.
L'erreur typique consiste à évaluer ce type d'initiatives uniquement sur la base d'indicateurs de croissance (vérifications, activations, réduction des comptes frauduleux) tout en mettant de côté l'indicateur qui soutient tout : légitimité perçue. Ce KPI est inconfortable car il ne peut être acheté par l'ingénierie ou le marketing ; il s'obtient par la gouvernance et des décisions prudentes en matière de données.
Lorsque la légitimité s'érode, le badge perd non seulement de sa valeur : il peut activer des coûts indirects qui affectent le cœur de métier. Un exemple est déjà apparu dans le contexte de cette nouvelle : #F5F5F5]">Discord a interrompu son essai avec Persona suite à ces préoccupations, selon les rapports qui alimentent l'article. [Lien Forbes
Pour LinkedIn, le risque n'est pas que "la vérification soit mauvaise", mais que le programme se retrouve piégé dans un pendule : durcir les contrôles pour améliorer la lutte contre la fraude tout en recevant des pressions publiques sur la vie privée. Si le pendule devient instable, la plateforme subit un double coût :
1) adoption réduite sur des marchés où il est déjà difficile de croître, et 2) coûts internes accrus pour le support, la communication et la gestion de crise.
Depuis mon point de vue en transformation d'entreprise, le point aveugle est souvent organisationnel : ces programmes sont poussés comme des fonctionnalités de produit, mais ils sont opérés comme une infrastructure réglementaire. Ils nécessitent un rythme de révision différent, un mode d'approbation différent pour les changements et une discipline différente en matière de documentation. S'ils sont gérés avec la rapidité d'une équipe de croissance, la porte s'ouvre à des incohérences régionales et par fournisseur.
Une architecture gagnante : séparer vérification, données et signal public
Si je devais auditer cette initiative dans le cadre du portefeuille, je commencerais par une idée simple : la société doit protéger la caisse du métier principal, mais aussi protéger l'actif le plus difficile à reconstruire, à savoir la confiance. Cela se réalise par le design, pas par les communiqués.
Un modèle robuste dans les grandes plateformes tend à séparer trois couches :
- Vérification : l'acte de confirmer l'identité selon un minimum d'exigences.
- Conservation des données : que conserve-t-on, où, pendant combien de temps, sous quels contrôles.
- Signal public : que voit le marché et que prétend exactement le badge.
La controverse décrite dans Forbes se produit parce que ces couches sont perçues comme mélangées : le badge semble prétendre à une simple affirmation, mais derrière cela se cache une chaîne complexe. Pour que le programme soit durable, LinkedIn doit veiller à ce que le signal public soit proportionnel à ce qu'elle contrôle réellement. Si le processus dépend de tiers et de configurations variables, le signal doit être accompagné de spécifications claires par région et fournisseur.
Cela exige aussi un changement interne : un "propriétaire" de vérification qui ne soit pas seulement produit ou seulement juridique. Cela doit être une fonction ayant le pouvoir d'arrêter des déploiements lorsque des preuves suffisantes sur les sous-traitants, la rétention et les critères de consultation font défaut. Cette posture vient en opposition à la bureaucratie dans le bon sens : moins de comités, plus de responsabilité explicite, plus de traçabilité.
Parallèlement, le programme doit traiter la vérification comme un investissement d'exploration contrôlée, même s'il est déjà en production. L'échelle de 100 millions suggère une maturité, mais la sensibilité publique et réglementaire indique que l'apprentissage n'est pas encore terminé. Dans des initiatives de ce type, l'apprentissage se mesure par la réduction des incidents réputationnels, la cohérence régionale et la capacité de preuve face aux audits, pas seulement par l'adoption.
Un portefeuille sain soutient l'activité d'aujourd'hui sans hypothéquer la confiance de demain
LinkedIn a transformé la vérification en un élément structurel de son offre de valeur. La décision d'opérer avec différents partenaires par région accélère la mise en place et réduit la friction, mais multiplie le travail de gouvernance et le risque d'asymétries. Si l'organisation traite cette couche comme une caractéristique supplémentaire, le programme est exposé à des crises récurrentes ; si elle l'aborde comme une infrastructure critique, elle peut maintenir l'échelle sans dégrader la confiance.
La viabilité du modèle dépendra de la capacité de LinkedIn à rester rentable sur son moteur actuel tout en professionnalisant la supervision des tiers avec des normes vérifiables, cohérentes par région et alignées avec le rythme d’expansion du produit.









