La debacle de la “revisión de expertos”: cómo las ambiciones de IA de Grammarly chocan contra un muro de ética

11

La transición de un útil corrector gramatical a un agente de inteligencia artificial que lo abarca todo es un camino plagado de minas terrestres legales y éticas. Esto es precisamente lo que le sucedió a Grammarly (ahora renombrado como Superhuman ) luego del controvertido lanzamiento y rápida desaparición de su función “Expert Review”.

Lo que comenzó como un intento de otorgar autoridad a las sugerencias generadas por la IA se ha convertido en una crisis que involucra el uso no autorizado de imágenes, citas incumplidas y una demanda colectiva inminente.

El ascenso y la caída de la “revisión de expertos”

En un esfuerzo por ir más allá de la simple revisión ortográfica, Grammarly lanzó una función llamada Revisión de expertos. La premisa era ambiciosa: la IA proporcionaría sugerencias de escritura “inspiradas en” profesionales, autores y académicos de renombre mundial.

Para agregar un barniz de credibilidad, la interfaz mostraba estas sugerencias junto con los nombres e íconos de estilo de verificación de figuras famosas. Sin embargo, la implementación fue profundamente defectuosa:

  • Imágenes no autorizadas: La función utilizó los nombres de periodistas vivos (incluido el personal de The Verge ), autores famosos como Stephen King e incluso académicos fallecidos como Carl Sagan, todo sin su consentimiento o compensación.
  • Autoridad alucinada: En lugar de proporcionar información genuina, la IA a menudo generaba una “ensalada de palabras” genérica. En un caso, el consejo atribuido al periodista Nilay Patel simplemente sugirió agregar “urgencia” e “intriga” a los titulares.
  • Enlaces rotos y elusión del muro de pago: Si bien la función afirmaba estar “inspirada” en trabajos publicados, los enlaces fuente proporcionados a menudo estaban rotos o redirigidos a archivos web de artículos con muro de pago que no contenían consejos de edición relevantes.

Una falta de consentimiento y atribución

Las consecuencias del descubrimiento de la característica provocaron un acalorado debate sobre la definición de atribución versus apropiación.

Cuando se enfrentó, el director ejecutivo de Superhuman, Shishir Mehrotra, defendió la práctica argumentando que la IA simplemente hacía referencia a trabajos disponibles públicamente. Sin embargo, los críticos, incluidos los mismos periodistas cuyos nombres fueron utilizados, argumentaron que hay una diferencia fundamental entre citar una fuente e “inventar algo” y ponerle el nombre de una persona para vender un servicio.

“Esto no fue una atribución”, argumentó Nilay Patel durante una confrontación en el podcast Decoder. “Acabas de inventar algo y le pusiste mi nombre… No es algo que yo diría jamás”.

La respuesta inicial de la empresa (ofrecer una bandeja de entrada de correo electrónico para que los expertos “opten por no participar”) fue ampliamente criticada como una forma insuficiente de manejar el uso no autorizado de identidades profesionales. Bajo una intensa presión, Superhuman finalmente desactivó la función por completo, prometiendo “reimaginarla” con mejores controles para los expertos.

Las consecuencias legales y culturales

La saga “Expert Review” no es sólo un error de relaciones públicas; ha entrado en la sala del tribunal. La periodista de investigación Julia Angwin ha presentado una demanda colectiva contra Superhuman, alegando violaciones de los derechos de privacidad y publicidad según las leyes de Nueva York y California.

Más allá de los aspectos legales, este incidente resalta una tensión creciente en la era de la IA: la naturaleza extractiva de los modelos generativos.

La tendencia es clara: las empresas de IA están ingiriendo grandes cantidades de propiedad intelectual humana para crear productos que imitan la experiencia de las mismas personas de las que están “aprendiendo”, a menudo sin permiso, crédito o compensación. Esto crea una relación parasitaria en la que el trabajo del creador se utiliza para construir una herramienta que eventualmente podría competir con ellos.

Conclusión

La controversia Grammarly/Superhuman sirve como una advertencia para la industria de la IA, demostrando que agregar un nombre famoso a una sugerencia de IA no crea autoridad, sino una responsabilidad. Mientras las empresas se apresuran a crear “agentes de IA”, la industria debe decidir si colaborará con expertos humanos o seguirá intentando automatizar sus identidades sin consentimiento.