I querelanti sostengono che xAI di Elon Musk abbia consapevolmente permesso al suo modello Grok AI di creare contenuti espliciti con minori identificabili. Una causa intentata lunedì presso il tribunale federale della California accusa xAI di negligenza, sostenendo che non ha implementato misure di sicurezza di base per prevenire la generazione di pornografia infantile. I querelanti, rappresentati da tre individui anonimi (Jane Doe 1, Jane Doe 2 e una minorenne Jane Doe 3), cercano di avviare un’azione collettiva per conto di chiunque le cui immagini siano state sfruttate in questo modo.
Le accuse
La causa è incentrata sul modello Grok AI di xAI e sulla sua presunta capacità di alterare fotografie reali di minori in immagini sessualmente esplicite. A differenza di altri importanti laboratori di intelligenza artificiale, xAI secondo quanto riferito non ha adottato filtri o misure di salvaguardia standard per bloccare tali contenuti. Questa omissione, sostengono i ricorrenti, ha creato un percorso diretto per l’abuso.
La causa evidenzia che una volta che una modella riesce a generare contenuti di nudo o erotici da foto reali, prevenire la pornografia infantile diventa quasi impossibile. Cita anche la promozione da parte di Elon Musk delle capacità di Grok – inclusa la sua capacità di rappresentare individui in abiti succinti – come prova della consapevolezza e della volontà dell’azienda di accettare i rischi.
Come si è verificato l’abuso
Una querelante, Jane Doe 1, ha scoperto che le sue foto del liceo (ritorno a casa e annuario) sono state alterate da Grok per raffigurarla nuda. È stata allertata da una fonte anonima che ha condiviso un collegamento a un server Discord contenente queste immagini insieme a quelle di altri minori.
Jane Doe 2 è stata informata dalle forze dell’ordine di immagini sessualizzate da lei create utilizzando un’app di terze parti fornita da modelli Grok. Allo stesso modo, Jane Doe 3 è stata informata dagli investigatori dopo che la sua immagine alterata è stata trovata sul dispositivo di un sospetto. Il team legale dei querelanti sostiene che xAI rimane responsabile per l’uso improprio da parte di terzi poiché dipende dal codice e dai server dell’azienda.
L’impatto e l’azione legale
Tutti e tre i querelanti riferiscono di aver sperimentato un grave disagio emotivo a causa della circolazione di queste immagini, temendo danni a lungo termine alla loro reputazione e alla vita sociale. La causa richiede sanzioni civili ai sensi delle leggi progettate per proteggere i bambini e ritenere le aziende responsabili per negligenza.
I ricorrenti sostengono che l’incapacità di agire di xAI non è stata semplicemente una svista; è stata una scelta deliberata che ha consentito uno sfruttamento diffuso. Il caso solleva interrogativi critici sulla responsabilità degli sviluppatori di intelligenza artificiale nel prevenire gli abusi, anche quando sono coinvolte applicazioni di terze parti.
La causa sottolinea l’urgente necessità di una regolamentazione e una supervisione più rigorosa delle tecnologie di generazione di immagini basate sull’intelligenza artificiale per salvaguardare le persone vulnerabili dai danni. L’esito legale potrebbe costituire un precedente per ritenere responsabili le aziende tecnologiche quando i loro prodotti vengono utilizzati per scopi illegali o di sfruttamento.































