L’intelligence artificielle érode rapidement l’anonymat en ligne, selon une nouvelle étude de l’ETH Zurich. Les scientifiques ont démontré que les outils d’IA peuvent identifier de manière fiable les individus derrière des comptes de réseaux sociaux pseudonymes en recoupant des détails apparemment inoffensifs partagés au fil du temps. Cette évolution a des implications significatives pour la confidentialité, la surveillance et la sécurité en ligne.
L’essor de la désanonymisation basée sur l’IA
Depuis des années, de nombreux internautes comptent sur l’anonymat pour exprimer leurs opinions, partager des informations sensibles ou s’engager dans des communautés de niche sans craindre de conséquences concrètes. Cependant, cette hypothèse de confidentialité n’est plus garantie. L’étude suisse révèle que les grands modèles linguistiques (LLM) peuvent désormais faire correspondre les comptes anonymes à leurs homologues du monde réel avec une exactitude allant jusqu’à 68 % et une précision de 90 %, surpassant considérablement les méthodes d’enquête manuelles.
Le processus est simple : les LLM analysent le Web à la recherche de détails personnels fragmentés (historique d’emploi, lieu, loisirs) que les individus divulguent sans le savoir sur les plateformes. Même des mentions apparemment inoffensives d’anciens lieux de travail ou de villes natales, dispersées au fil des années, peuvent suffire à briser l’anonymat. Il ne s’agit pas d’une IA surhumaine ; c’est une question d’automatisation. Les LLM peuvent passer au crible les données beaucoup plus rapidement et à moindre coût que n’importe quel enquêteur humain.
Qui est le plus à risque ?
Les utilisateurs les plus vulnérables sont ceux qui partagent systématiquement des informations personnelles sous des pseudonymes – en particulier les personnes âgées ou celles qui ne sont pas familiarisées avec les pratiques avancées de confidentialité. Les chercheurs ont découvert que plus une personne révèle d’informations au fil du temps, plus elle est facile à démasquer.
Cela constitue une menace directe pour les lanceurs d’alerte, les militants, les journalistes et toute autre personne s’appuyant sur l’anonymat pour se protéger de la surveillance, du harcèlement ou de la censure. Les gouvernements pourraient exploiter cette technologie pour identifier les dissidents ; les entreprises pourraient l’utiliser pour de la publicité hyper-ciblée ou pour le profilage des clients ; et des acteurs malveillants pourraient lancer des attaques d’ingénierie sociale hautement personnalisées.
La technologie derrière la percée
Les chercheurs ont construit leur système en utilisant des ensembles de données accessibles au public provenant de plateformes telles que Hacker News, LinkedIn et Reddit. Ils ont testé les LLM en divisant délibérément les comptes Reddit anonymisés et en mettant l’IA au défi de les faire correspondre à leurs identités d’origine. Les résultats étaient clairs : La désanonymisation basée sur l’IA n’est pas seulement possible ; c’est de plus en plus efficace.
Les auteurs de l’étude soulignent que la technologie ne nécessite pas une puissance de calcul extraordinaire ni des connaissances spécialisées. Les mécanismes sous-jacents sont déjà en place et ils prévoient que d’ici quelques années, les utilisateurs quotidiens auront accès à des outils capables de démasquer les comptes anonymes.
La solution : les comptes jetables
Le moyen le plus efficace de protéger l’anonymat en ligne est étonnamment simple : utilisez des comptes jetables pour les publications sensibles. La création d’un profil à usage unique élimine la trace des données personnelles exploitées par les LLM. Si vous avez besoin de partager quelque chose de vraiment confidentiel, n’utilisez pas le même compte que vous utilisez depuis des années ; en créer un nouveau spécifiquement à cet effet.
“Si vous souhaitez que quelque chose soit anonyme, si vous avez quelque chose à protéger, soyez-en conscient”, déclare Daniel Paleka, auteur principal de l’étude. “Les principes fondamentaux de la technologie sont là. S’il n’y a pas de gardes, je m’attends à ce que quelqu’un en abuse.”
La fenêtre pour résoudre ce problème se ferme. À mesure que les outils d’IA deviennent plus accessibles, l’érosion de l’anonymat en ligne va s’accélérer. L’étude sert de signal d’alarme : les utilisateurs, les plateformes et les décideurs politiques doivent agir maintenant pour protéger la vie privée avant qu’elle ne disparaisse complètement.
































