La transition d’un vérificateur grammatical utile à un agent d’IA global est un chemin semé d’embûches juridiques et éthiques. C’est précisément ce qui est arrivé à Grammarly (désormais rebaptisé Superhuman ) après le lancement controversé et la disparition rapide de sa fonctionnalité « Expert Review ».
Ce qui a commencé comme une tentative d’accorder de l’autorité aux suggestions générées par l’IA a dégénéré en une crise impliquant une utilisation non autorisée de ressemblances, des citations brisées et un recours collectif imminent.
L’essor et la chute de la « revue d’experts »
Dans le but d’aller au-delà de la simple vérification orthographique, Grammarly a lancé une fonctionnalité appelée Expert Review. Le principe était ambitieux : l’IA fournirait des suggestions d’écriture « inspirées par » des professionnels, des auteurs et des universitaires de renommée mondiale.
Pour ajouter une touche de crédibilité, l’interface affiche ces suggestions à côté des noms et des icônes de style de vérification de personnalités célèbres. Cependant, la mise en œuvre était profondément erronée :
- Ressemblances non autorisées : L’article utilisait les noms de journalistes vivants (y compris le personnel de The Verge ), d’auteurs célèbres comme Stephen King et même d’universitaires décédés comme Carl Sagan, le tout sans leur consentement ni compensation.
- Autorité hallucinée : Au lieu de fournir de véritables informations, l’IA générait souvent une « salade de mots » générique. Dans un cas, les conseils attribués au journaliste Nilay Patel suggéraient simplement d’ajouter « urgence » et « intrigue » aux gros titres.
- Liens brisés et contournement du Paywall : Alors que la fonctionnalité prétendait être « inspirée » par des œuvres publiées, les liens sources fournis étaient souvent rompus ou redirigés vers des archives Web d’articles payants qui ne contenaient aucun conseil d’édition pertinent.
Un échec de consentement et d’attribution
Les retombées de la découverte de cette fonctionnalité ont déclenché un débat houleux sur la définition de attribution versus appropriation.
Lorsqu’il a été confronté, Shishir Mehrotra, PDG de Superhuman, a défendu cette pratique en affirmant que l’IA faisait simplement référence à un travail accessible au public. Cependant, les critiques – y compris les journalistes dont les noms ont été cités – ont fait valoir qu’il existe une différence fondamentale entre citer une source et « inventer quelque chose » et apposer le nom d’une personne dessus pour vendre un service.
“Ce n’était pas une attribution”, a soutenu Nilay Patel lors d’une confrontation sur le podcast Decoder. “Tu as juste inventé quelque chose et tu as mis mon nom dessus… Ce n’est pas quelque chose que je dirais jamais.”
La réponse initiale de l’entreprise – offrir une boîte de réception de courrier électronique permettant aux experts de se désinscrire – a été largement critiquée comme étant un moyen insuffisant pour gérer l’utilisation non autorisée des identités professionnelles. Sous une pression intense, Superhuman a finalement complètement désactivé la fonctionnalité, promettant de la « réimaginer » avec de meilleurs contrôles pour les experts.
Les retombées juridiques et culturelles
La saga des « Expert Review » n’est pas seulement une erreur de relations publiques ; il est entré dans la salle d’audience. La journaliste d’investigation Julia Angwin a déposé un recours collectif contre Superhuman, alléguant des violations des droits à la vie privée et à la publicité en vertu des lois de New York et de Californie.
Au-delà des aspects juridiques, cet incident met en évidence une tension croissante à l’ère de l’IA : la nature extractive des modèles génératifs.
La tendance est claire : les sociétés d’IA ingèrent de grandes quantités de propriété intellectuelle humaine pour créer des produits qui imitent l’expertise des personnes mêmes auprès desquelles elles « apprennent », souvent sans autorisation, crédit ou compensation. Cela crée une relation parasitaire où le travail du créateur est utilisé pour construire un outil qui pourrait à terme rivaliser avec lui.
Conclusion
La controverse Grammarly/Superhuman sert de mise en garde pour l’industrie de l’IA, prouvant que l’ajout d’un nom célèbre à une suggestion d’IA ne crée pas d’autorité, mais crée un handicap. Alors que les entreprises se précipitent pour créer des « agents IA », l’industrie doit décider si elle collaborera avec des experts humains ou si elle continuera à tenter d’automatiser leurs identités sans consentement.
