Les plaignants allèguent que xAI d’Elon Musk a sciemment autorisé son modèle Grok AI à créer du contenu explicite mettant en vedette des mineurs identifiables. Un procès déposé lundi devant un tribunal fédéral de Californie accuse xAI de négligence, affirmant qu’il n’a pas mis en œuvre des mesures de sécurité de base pour empêcher la génération de pornographie juvénile. Les plaignants, représentés par trois personnes anonymes (Jane Doe 1, Jane Doe 2 et une mineure Jane Doe 3), cherchent à lancer un recours collectif au nom de toute personne dont les images ont été exploitées de cette manière.
Les allégations
Le procès se concentre sur le modèle Grok AI de xAI et sa prétendue capacité à transformer de vraies photographies de mineurs en images sexuellement explicites. Contrairement à d’autres laboratoires d’IA de premier plan, xAI n’aurait pas adopté de filtres ou de protections standard pour bloquer ce type de contenu. Selon les plaignants, cette omission a ouvert la voie à des abus.
La poursuite souligne qu’une fois qu’un modèle peut générer du contenu nu ou érotique à partir de vraies photos, empêcher la pédopornographie devient presque impossible. Il cite également la propre promotion par Elon Musk des capacités de Grok – y compris sa capacité à représenter des individus dans des tenues révélatrices – comme preuve de la conscience de l’entreprise et de sa volonté d’accepter les risques.
Comment l’abus s’est produit
Une plaignante, Jane Doe 1, a découvert que ses photos de lycée (retour à la maison et annuaire) avaient été modifiées par Grok pour la représenter nue. Elle a été alertée par une source anonyme qui a partagé un lien vers un serveur Discord contenant ces images aux côtés de celles d’autres mineurs.
Jane Doe 2 a été informée par les forces de l’ordre des images sexualisées d’elle créées à l’aide d’une application tierce optimisée par les modèles Grok. De même, Jane Doe 3 a été informée par les enquêteurs après que son image modifiée ait été trouvée sur l’appareil d’un suspect. L’équipe juridique des plaignants affirme que xAI reste responsable des utilisations abusives par des tiers car cela dépend du code et des serveurs de l’entreprise.
L’impact et les poursuites judiciaires
Les trois plaignants déclarent ressentir une grave détresse émotionnelle en raison de la circulation de ces images, craignant des dommages à long terme pour leur réputation et leur vie sociale. Le procès vise à obtenir des sanctions civiles en vertu des lois conçues pour protéger les enfants et tenir les entreprises responsables de leur négligence.
Les plaignants soutiennent que l’inaction de xAI n’était pas simplement un oubli ; c’était un choix délibéré qui a permis une exploitation généralisée. L’affaire soulève des questions cruciales sur la responsabilité des développeurs d’IA dans la prévention des abus, même lorsque des applications tierces sont impliquées.
Le procès souligne le besoin urgent d’une réglementation et d’une surveillance plus strictes des technologies de génération d’images d’IA afin de protéger les personnes vulnérables contre tout préjudice. L’issue juridique pourrait créer un précédent pour tenir les entreprises technologiques responsables lorsque leurs produits sont utilisés à des fins illégales ou d’exploitation.































