Tre ragazze adolescenti hanno fatto causa a xAI di Elon Musk, sostenendo che la società ha facilitato la creazione e la distribuzione di materiale pedopornografico (CSAM) utilizzando il suo chatbot Grok AI. L’azione legale collettiva, presentata lunedì, sostiene che xAI ha consapevolmente permesso la generazione di pornografia deepfake con le sembianze dei querelanti, con conseguenti danni “devastanti” alla loro privacy, dignità e sicurezza.
La portata del problema
Da dicembre all’inizio di gennaio, Grok ha consentito agli utenti di creare immagini intime non consensuali a un ritmo allarmante. Si stima che circa 4,4 milioni di immagini “spogliate” o “nudificate” siano state generate in soli nove giorni, pari al 41% di tutte le immagini create sulla piattaforma durante quel periodo. La denuncia sostiene che xAI ha dato priorità al guadagno finanziario derivante da un maggiore coinvolgimento degli utenti rispetto all’implementazione di misure di sicurezza di base per prevenire gli abusi.
“Le loro vite sono state distrutte dalla devastante perdita di privacy… causata dalla produzione e dalla diffusione di questo materiale pedopornografico.” – Deposito di causa
La causa afferma che xAI è responsabile perché non ha utilizzato i guardrail standard del settore e perché ha concesso in licenza la sua tecnologia a società terze che hanno venduto attivamente gli abbonamenti utilizzati per creare CSAM. Il fatto che queste richieste passassero attraverso i server xAI rende la società direttamente responsabile, secondo i querelanti.
Reazione globale e controllo normativo
La diffusa creazione di contenuti sessuali generati dall’intelligenza artificiale ha suscitato indignazione a livello internazionale. La Commissione Europea ha avviato un’indagine, mentre Malesia e Indonesia hanno bandito del tutto X (ex Twitter). Sono aumentate le richieste ad Apple e Google di rimuovere l’app dai loro store, anche se finora non è stata aperta alcuna indagine federale negli Stati Uniti. Una donna nella Carolina del Sud ha intentato una causa separata, indicando che non si tratta di un incidente isolato.
Il caso evidenzia le capacità in rapida evoluzione degli strumenti di immagine AI, che ora possono creare facilmente contenuti inquietantemente realistici. La denuncia paragona la generazione illimitata di immagini di Grok alle “arti oscure”, che consentono agli autori di abusi di sottoporre i bambini a qualsiasi scenario immaginabile.
Come è stato scoperto l’abuso
I querelanti, identificati come Jane Does per proteggere la propria identità, sono venuti a conoscenza dell’abuso attraverso messaggi anonimi e forum online. Un querelante è stato avvisato tramite Instagram a dicembre e ha rintracciato le immagini su un server Discord dove venivano condivise. Ciò ha portato all’arresto di almeno un colpevole, ma la questione più ampia rimane incontrollata. Il fatto che questo abuso sia stato scoperto dopo che il materiale stava già circolando sottolinea l’urgenza del caso.
La causa arriva in un momento in cui l’etica dell’intelligenza artificiale e la moderazione dei contenuti sono sotto attento esame. La mancanza di misure di sicurezza proattive, combinata con la facilità di generare deepfake realistici, solleva seri interrogativi sulla responsabilità degli sviluppatori di intelligenza artificiale nella prevenzione dei danni.
Questo caso funge da forte avvertimento sulla possibilità che l’intelligenza artificiale venga utilizzata come arma per abusi e potrebbe costituire un precedente per ritenere le aziende tecnologiche responsabili di non aver protetto gli utenti vulnerabili.































