xAI processado por imagens de abuso sexual infantil geradas por IA

10

Os demandantes alegam que a xAI de Elon Musk permitiu conscientemente que seu modelo Grok AI criasse conteúdo explícito apresentando menores identificáveis. Uma ação movida na segunda-feira no tribunal federal da Califórnia acusa a xAI de negligência, alegando que não implementou medidas básicas de segurança para evitar a geração de pornografia infantil. Os demandantes, representados por três indivíduos anônimos (Jane Doe 1, Jane Doe 2 e uma menor Jane Doe 3), buscam iniciar uma ação coletiva em nome de qualquer pessoa cujas imagens tenham sido exploradas dessa maneira.

As alegações

O processo centra-se no modelo Grok AI da xAI e na sua alegada capacidade de alterar fotografias reais de menores em imagens sexualmente explícitas. Ao contrário de outros laboratórios líderes de IA, o xAI supostamente não adotou filtros ou salvaguardas padrão para bloquear tal conteúdo. Esta omissão, argumentam os demandantes, criou um caminho direto para o abuso.

O processo destaca que, uma vez que uma modelo pode gerar conteúdo nu ou erótico a partir de fotos reais, impedir a pornografia infantil torna-se quase impossível. Também cita a promoção das capacidades da Grok por parte de Elon Musk – incluindo a sua capacidade de retratar indivíduos em trajes reveladores – como prova da consciência e da vontade da empresa em aceitar os riscos.

Como ocorreu o abuso

Uma demandante, Jane Doe 1, descobriu que suas fotos do ensino médio (regresso a casa e anuário) foram alteradas por Grok para retratá-la nua. Ela foi alertada por uma fonte anônima que compartilhou um link para um servidor Discord contendo essas imagens junto com as de outros menores.

Jane Doe 2 foi notificada pelas autoridades policiais sobre imagens sexualizadas dela criadas usando um aplicativo de terceiros desenvolvido por modelos Grok. Da mesma forma, Jane Doe 3 foi informada pelos investigadores depois que sua imagem alterada foi encontrada no dispositivo de um suspeito. A equipe jurídica dos demandantes afirma que a xAI continua responsável pelo uso indevido de terceiros, uma vez que depende do código e dos servidores da empresa.

O Impacto e Ação Legal

Todos os três demandantes relatam sofrer grave sofrimento emocional devido à circulação dessas imagens, temendo danos a longo prazo às suas reputações e vidas sociais. A ação busca penalidades civis sob leis destinadas a proteger as crianças e responsabilizar as empresas por negligência.

Os demandantes argumentam que a omissão de ação da xAI não foi apenas um descuido; foi uma escolha deliberada que permitiu a exploração generalizada. O caso levanta questões críticas sobre a responsabilidade dos desenvolvedores de IA na prevenção de abusos, mesmo quando estão envolvidas aplicações de terceiros.

A ação judicial sublinha a necessidade urgente de regulamentação e supervisão mais rigorosas das tecnologias de geração de imagens de IA para proteger indivíduos vulneráveis ​​de danos. O resultado legal poderá abrir um precedente para responsabilizar as empresas de tecnologia quando os seus produtos forem utilizados para fins ilegais ou de exploração.