Il passaggio da un utile correttore grammaticale a un agente di intelligenza artificiale onnicomprensivo è un percorso irto di mine legali ed etiche. Questo è esattamente quello che è successo a Grammarly (ora rinominato Superhuman ) in seguito al controverso lancio e alla rapida scomparsa della sua funzione “Revisione esperta”.
Ciò che era iniziato come un tentativo di conferire autorità ai suggerimenti generati dall’intelligenza artificiale si è trasformato in una crisi che coinvolge l’uso non autorizzato di somiglianze, citazioni errate e un’incombente causa legale collettiva.
Ascesa e declino della “revisione degli esperti”
Nel tentativo di andare oltre il semplice controllo ortografico, Grammarly ha lanciato una funzionalità chiamata Revisione esperta. La premessa era ambiziosa: l’intelligenza artificiale avrebbe fornito suggerimenti di scrittura “ispirati da” professionisti, autori e accademici di fama mondiale.
Per aggiungere una patina di credibilità, l’interfaccia mostrava questi suggerimenti insieme ai nomi e alle icone di verifica di personaggi famosi. Tuttavia, l’implementazione era profondamente imperfetta:
- Somiglianze non autorizzate: La funzione utilizzava i nomi di giornalisti viventi (incluso lo staff di The Verge ), autori famosi come Stephen King e persino accademici deceduti come Carl Sagan, il tutto senza il loro consenso o compenso.
- Autorità allucinata: Invece di fornire intuizioni autentiche, l’intelligenza artificiale spesso generava una generica “insalata di parole”. In un caso, il consiglio attribuito al giornalista Nilay Patel suggeriva semplicemente di aggiungere “urgenza” e “intrigo” ai titoli dei giornali.
- Link interrotti e bypass del paywall: sebbene la funzionalità affermasse di essere “ispirata” da lavori pubblicati, i collegamenti alla fonte forniti erano spesso interrotti o reindirizzati ad archivi web di articoli protetti da paywall che non contenevano consigli di modifica rilevanti.
Mancanza di consenso e attribuzione
Le conseguenze della scoperta della funzionalità hanno scatenato un acceso dibattito sulla definizione di attribuzione rispetto a appropriazione.
Quando è stato confrontato, il CEO di Superhuman, Shishir Mehrotra, ha difeso la pratica sostenendo che l’intelligenza artificiale si riferiva semplicemente al lavoro disponibile al pubblico. Tuttavia, i critici, inclusi gli stessi giornalisti i cui nomi sono stati usati, hanno sostenuto che esiste una differenza fondamentale tra citare una fonte e “inventare qualcosa” e schiaffeggiarci sopra il nome di una persona per vendere un servizio.
“Questa non era un’attribuzione”, ha sostenuto Nilay Patel durante un confronto sul podcast Decoder. “Hai appena inventato qualcosa e ci hai messo sopra il mio nome… Non è qualcosa che direi mai.”
La risposta iniziale dell’azienda, ovvero l’offerta di una casella di posta elettronica per consentire agli esperti di “rinunciare”, è stata ampiamente criticata in quanto un modo insufficiente per gestire l’uso non autorizzato delle identità professionali. Sotto forte pressione, Superhuman alla fine disabilitò completamente la funzione, promettendo di “reimmaginarla” con controlli migliori per gli esperti.
Le ricadute giuridiche e culturali
La saga “Expert Review” non è solo un errore di pubbliche relazioni; è entrato in aula. La giornalista investigativa Julia Angwin ha intentato un’azione legale collettiva contro Superhuman, sostenendo violazioni della privacy e dei diritti di pubblicità ai sensi della legge di New York e della California.
Al di là degli aspetti legali, questo incidente evidenzia una crescente tensione nell’era dell’intelligenza artificiale: la natura estrattiva dei modelli generativi.
La tendenza è chiara: le aziende di intelligenza artificiale stanno inglobando grandi quantità di proprietà intellettuale umana per creare prodotti che imitano l’esperienza delle stesse persone da cui “imparano”, spesso senza permesso, credito o compenso. Ciò crea una relazione parassitaria in cui il lavoro del creatore viene utilizzato per costruire uno strumento che potrebbe eventualmente competere con lui.
Conclusione
La controversia Grammarly/Superhuman funge da ammonimento per l’industria dell’intelligenza artificiale, dimostrando che l’aggiunta di un nome famoso a un suggerimento sull’intelligenza artificiale non crea autorità, ma crea una responsabilità. Mentre le aziende corrono per costruire “agenti IA”, l’industria deve decidere se collaborerà con esperti umani o continuerà a tentare di automatizzare le loro identità senza consenso.
































