Tienermeisjes klagen xAI aan wegens door AI gegenereerde beelden van seksueel misbruik van kinderen

17

Drie tienermeisjes klagen xAI van Elon Musk aan, omdat ze beweren dat het bedrijf de creatie en distributie van materiaal over seksueel misbruik van kinderen (CSAM) heeft gefaciliteerd met behulp van zijn Grok AI-chatbot. De class action-rechtszaak, die maandag werd aangespannen, beweert dat xAI willens en wetens het genereren van deepfake-pornografie met de gelijkenissen van de eisers heeft toegestaan, resulterend in “verwoestende” schade aan hun privacy, waardigheid en veiligheid.

De omvang van het probleem

Van december tot begin januari stelde Grok gebruikers in staat om in een alarmerend tempo intieme afbeeldingen zonder wederzijdse toestemming te creëren. In slechts negen dagen werden naar schatting 4,4 miljoen “uitgeklede” of “naakt gemaakte” afbeeldingen gegenereerd, goed voor 41% van alle afbeeldingen die in die periode op het platform zijn gemaakt. De klacht stelt dat xAI prioriteit gaf aan financiële winst uit een grotere betrokkenheid van gebruikers boven het implementeren van basisveiligheidsmaatregelen om misbruik te voorkomen.

“Hun levens zijn verwoest door het verwoestende verlies aan privacy… dat de productie en verspreiding van deze CSAM hebben veroorzaakt.” – Rechtszaak indienen

In de rechtszaak wordt beweerd dat xAI aansprakelijk is omdat het er niet in is geslaagd gebruik te maken van industriestandaard vangrails, en omdat het zijn technologie in licentie heeft gegeven aan externe bedrijven die actief abonnementen verkochten die werden gebruikt om CSAM te creëren. Het feit dat deze verzoeken via xAI-servers liepen, maakt het bedrijf volgens de eisers rechtstreeks aansprakelijk.

Wereldwijde tegenslag en toezichthoudend toezicht

De wijdverbreide creatie van door AI gegenereerde seksuele inhoud leidde tot internationale verontwaardiging. De Europese Commissie startte een onderzoek, terwijl Maleisië en Indonesië X (voorheen Twitter) helemaal verboden. De roep om Apple en Google om de app uit hun winkels te verwijderen groeide, hoewel er nog geen Amerikaans federaal onderzoek is geopend. Er werd een aparte rechtszaak aangespannen door een vrouw in South Carolina, waaruit blijkt dat dit geen op zichzelf staand incident is.

De case benadrukt de snel evoluerende mogelijkheden van AI-beeldtools, die nu met gemak verontrustend realistische inhoud kunnen creëren. De klacht vergelijkt de onbeperkte beeldgeneratie van Grok met ‘duistere kunsten’, waardoor misbruikers kinderen aan elk denkbaar scenario kunnen onderwerpen.

Hoe het misbruik werd ontdekt

De aanklagers, geïdentificeerd als Jane Does om hun identiteit te beschermen, hoorden van het misbruik via anonieme berichten en online forums. Eén aanklager werd in december via Instagram gewaarschuwd en traceerde de beelden naar een Discord-server waar ze werden gedeeld. Dit leidde tot de arrestatie van ten minste één dader, maar de bredere kwestie blijft onbeheerd. Het feit dat dit misbruik werd ontdekt nadat het materiaal al in omloop was, onderstreept de urgentie van de zaak.

De rechtszaak komt op een moment dat AI-ethiek en contentmoderatie onder intensief toezicht staan. Het gebrek aan proactieve veiligheidsmaatregelen, gecombineerd met het gemak waarmee realistische deepfakes kunnen worden gegenereerd, roept ernstige vragen op over de verantwoordelijkheid van AI-ontwikkelaars bij het voorkomen van schade.

Deze zaak dient als een duidelijke waarschuwing over de mogelijkheid dat AI kan worden ingezet voor misbruik, en zou een precedent kunnen scheppen voor het aansprakelijk stellen van technologiebedrijven voor het niet beschermen van kwetsbare gebruikers.