L’intelligenza artificiale ora può smascherare account online anonimi con elevata precisione

6

L’intelligenza artificiale sta rapidamente erodendo l’anonimato online, secondo una nuova ricerca dell’ETH di Zurigo. Gli scienziati hanno dimostrato che gli strumenti di intelligenza artificiale possono identificare in modo affidabile gli individui dietro account di social media pseudonimi facendo riferimenti incrociati a dettagli apparentemente innocui condivisi nel tempo. Questo sviluppo ha implicazioni significative per la privacy, la sorveglianza e la sicurezza online.

L’ascesa della deanonimizzazione basata sull’intelligenza artificiale

Per anni, molti utenti di Internet hanno fatto affidamento sull’anonimato per esprimere opinioni, condividere informazioni sensibili o impegnarsi in comunità di nicchia senza timore di conseguenze nel mondo reale. Tuttavia, questo presupposto della privacy non è più garantito. Lo studio svizzero rivela che i modelli linguistici di grandi dimensioni (LLM) possono ora abbinare account anonimi alle loro controparti del mondo reale con un’accuratezza fino al 68% e una precisione del 90%, superando significativamente i metodi di indagine manuale.

Il processo è semplice: gli LLM scansionano il web alla ricerca di dettagli personali frammentati (storia lavorativa, posizione, hobby) che gli individui trapelano inconsapevolmente attraverso le piattaforme. Anche le menzioni apparentemente innocue di luoghi di lavoro o città natali passati, sparse nel corso degli anni, possono essere sufficienti per rompere l’anonimato. Non si tratta di un’intelligenza artificiale sovrumana; si tratta di automazione. Gli LLM possono vagliare i dati molto più velocemente e in modo più economico di qualsiasi investigatore umano.

Chi è più a rischio?

Gli utenti più vulnerabili sono quelli che condividono costantemente dettagli personali sotto pseudonimi, in particolare gli individui più anziani o coloro che non hanno familiarità con le pratiche avanzate sulla privacy. I ricercatori hanno scoperto che più informazioni qualcuno rivela nel tempo, più facile sarà smascherarlo.

Ciò rappresenta una minaccia diretta per informatori, attivisti, giornalisti e chiunque altro faccia affidamento sull’anonimato per proteggersi da sorveglianza, molestie o censura. I governi potrebbero sfruttare questa tecnologia per identificare i dissidenti; le aziende potrebbero utilizzarlo per pubblicità iper-mirate o per la profilazione dei clienti; e gli autori malintenzionati potrebbero lanciare attacchi di ingegneria sociale altamente personalizzati.

La tecnologia dietro la svolta

I ricercatori hanno costruito il loro sistema utilizzando set di dati disponibili pubblicamente da piattaforme come Hacker News, LinkedIn e Reddit. Hanno testato gli LLM dividendo deliberatamente gli account Reddit anonimizzati e sfidando l’intelligenza artificiale ad abbinarli alle loro identità originali. I risultati sono stati chiari: la deanonimizzazione basata sull’intelligenza artificiale non solo è possibile; sta diventando sempre più efficiente.

Gli autori dello studio sottolineano che la tecnologia non richiede una potenza computazionale straordinaria o conoscenze specializzate. I meccanismi di base sono già in atto e prevedono che entro pochi anni gli utenti comuni avranno accesso a strumenti in grado di smascherare account anonimi.

La soluzione: conti usa e getta

Il modo più efficace per proteggere l’anonimato online è sorprendentemente semplice: utilizzare account usa e getta per i post sensibili. La creazione di un profilo monouso elimina la traccia di dati personali sfruttata dai LLM. Se hai bisogno di condividere qualcosa di veramente confidenziale, non utilizzare lo stesso account che usi da anni; crearne uno nuovo appositamente per quello scopo.

“Se ci tenete che qualcosa resti anonimo, se avete qualcosa da proteggere, tenete presente questo”, dice Daniel Paleka, autore principale dello studio. “I fondamenti della tecnologia ci sono. Se non ci sono guardie, mi aspetto che qualcuno ne faccia un uso improprio.”

La finestra per risolvere questo problema si sta chiudendo. Man mano che gli strumenti di intelligenza artificiale diventano più accessibili, l’erosione dell’anonimato online accelererà. Lo studio funge da campanello d’allarme: utenti, piattaforme e policy maker devono agire ora per salvaguardare la privacy prima che scompaia del tutto.