Trois adolescentes poursuivent xAI d’Elon Musk, alléguant que l’entreprise a facilité la création et la distribution de matériel pédopornographique (CSAM) à l’aide de son chatbot Grok AI. Le recours collectif, déposé lundi, affirme que xAI a sciemment autorisé la génération de fausses pornographies à l’effigie des plaignants, entraînant un préjudice « dévastateur » à leur vie privée, leur dignité et leur sécurité.
L’ampleur du problème
De décembre à début janvier, Grok a permis aux utilisateurs de créer des images intimes non consensuelles à un rythme alarmant. On estime que 4,4 millions d’images « déshabillées » ou « nudifiées » ont été générées en seulement neuf jours, ce qui représente 41 % de toutes les images créées sur la plateforme au cours de cette période. La plainte fait valoir que xAI a donné la priorité au gain financier résultant d’un engagement accru des utilisateurs plutôt qu’à la mise en œuvre de mesures de sécurité de base pour prévenir les abus.
« Leurs vies ont été bouleversées par la perte dévastatrice de vie privée… causée par la production et la diffusion de ce CSAM. » – Dépôt de poursuite
Le procès affirme que xAI est responsable parce qu’il n’a pas utilisé les garde-fous conformes aux normes de l’industrie et parce qu’il a concédé sa technologie sous licence à des sociétés tierces qui vendaient activement des abonnements utilisés pour créer du CSAM. Le fait que ces requêtes transitaient par les serveurs xAI rend l’entreprise directement responsable, selon les plaignants.
Réaction mondiale et contrôle réglementaire
La création généralisée de contenus sexuels générés par l’IA a suscité l’indignation internationale. La Commission européenne a ouvert une enquête, tandis que la Malaisie et l’Indonésie ont complètement interdit X (anciennement Twitter). Les appels à Apple et Google pour qu’ils suppriment l’application de leurs magasins se sont multipliés, même si aucune enquête fédérale américaine n’a encore été ouverte. Une poursuite distincte a été déposée par une femme en Caroline du Sud, indiquant qu’il ne s’agit pas d’un incident isolé.
L’affaire met en évidence l’évolution rapide des capacités des outils d’image d’IA, qui peuvent désormais créer facilement un contenu d’un réalisme troublant. La plainte compare la génération d’images sans restriction de Grok à une « magie noire », permettant aux agresseurs de soumettre les enfants à n’importe quel scénario imaginable.
Comment l’abus a été découvert
Les plaignants, identifiés comme Jane Does pour protéger leur identité, ont été informés des abus grâce à des messages anonymes et à des forums en ligne. Un plaignant a été alerté via Instagram en décembre et a retracé les images jusqu’à un serveur Discord où elles étaient partagées. Cela a conduit à l’arrestation d’au moins un des auteurs, mais le problème plus large reste entier. Le fait que cet abus ait été découvert après que les informations circulaient déjà souligne l’urgence de l’affaire.
Le procès intervient à un moment où l’éthique de l’IA et la modération du contenu font l’objet d’un examen minutieux. L’absence de mesures de sécurité proactives, combinée à la facilité de générer des deepfakes réalistes, soulève de sérieuses questions sur la responsabilité des développeurs d’IA dans la prévention des dommages.
Cette affaire constitue un avertissement sévère quant à la possibilité que l’IA soit utilisée à des fins abusives, et elle pourrait créer un précédent en tenant les entreprises technologiques pour responsables de leur incapacité à protéger les utilisateurs vulnérables.
