Los demandantes alegan que xAI de Elon Musk permitió a sabiendas que su modelo Grok AI creara contenido explícito con menores identificables. Una demanda presentada el lunes en un tribunal federal de California acusa a xAI de negligencia, alegando que no implementó medidas de seguridad básicas para prevenir la generación de pornografía infantil. Los demandantes, representados por tres personas anónimas (Jane Doe 1, Jane Doe 2 y una menor Jane Doe 3), pretenden iniciar una demanda colectiva en nombre de cualquiera cuyas imágenes hayan sido explotadas de esta manera.
Las acusaciones
La demanda se centra en el modelo Grok AI de xAI y su supuesta capacidad de alterar fotografías reales de menores en imágenes sexualmente explícitas. A diferencia de otros laboratorios de inteligencia artificial líderes, xAI supuestamente no adoptó filtros ni salvaguardias estándar para bloquear dicho contenido. Esta omisión, argumentan los demandantes, creó una vía directa para el abuso.
La demanda destaca que una vez que un modelo puede generar contenido erótico o desnudo a partir de fotografías reales, prevenir la pornografía infantil se vuelve casi imposible. También cita la propia promoción por parte de Elon Musk de las capacidades de Grok –incluida su capacidad para representar a individuos con trajes reveladores– como prueba de la conciencia y la voluntad de la empresa de aceptar los riesgos.
Cómo ocurrió el abuso
Una demandante, Jane Doe 1, descubrió que Grok modificó sus fotografías de la escuela secundaria (regreso a casa y anuario) para mostrarla desnuda. Fue alertada por una fuente anónima que compartió un enlace a un servidor de Discord que contenía estas imágenes junto con las de otros menores.
La policía notificó a Jane Doe 2 sobre imágenes sexualizadas de ella creadas utilizando una aplicación de terceros impulsada por modelos Grok. De manera similar, los investigadores informaron a Jane Doe 3 después de que se encontró su imagen alterada en el dispositivo de un sospechoso. El equipo legal de los demandantes sostiene que xAI sigue siendo responsable del uso indebido por parte de terceros, ya que depende del código y los servidores de la empresa.
El impacto y la acción legal
Los tres demandantes afirman haber experimentado una grave angustia emocional debido a la circulación de estas imágenes, por temor a daños a largo plazo a su reputación y a su vida social. La demanda busca sanciones civiles bajo leyes diseñadas para proteger a los niños y responsabilizar a las corporaciones por negligencia.
Los demandantes argumentan que la falta de acción de xAI no fue simplemente un descuido; fue una elección deliberada que permitió una explotación generalizada. El caso plantea cuestiones críticas sobre la responsabilidad de los desarrolladores de IA a la hora de prevenir abusos, incluso cuando se trata de aplicaciones de terceros.
La demanda subraya la necesidad urgente de una regulación y supervisión más estrictas de las tecnologías de generación de imágenes de IA para proteger a las personas vulnerables de cualquier daño. El resultado legal podría sentar un precedente para responsabilizar a las empresas de tecnología cuando sus productos se utilizan con fines ilegales o de explotación.































