Eisers beweren dat xAI van Elon Musk willens en wetens zijn Grok AI-model heeft toegestaan expliciete inhoud te creëren met identificeerbare minderjarigen. Een rechtszaak die maandag is ingediend bij de federale rechtbank van Californië beschuldigt xAI van nalatigheid en beweert dat het er niet in is geslaagd elementaire veiligheidsmaatregelen te implementeren om het genereren van kinderpornografie te voorkomen. De eisers, vertegenwoordigd door drie anonieme personen (Jane Doe 1, Jane Doe 2 en een minderjarige Jane Doe 3), proberen een class action-rechtszaak aan te spannen namens iedereen wiens beelden op deze manier zijn misbruikt.
De beschuldigingen
De rechtszaak draait om het Grok AI-model van xAI en het vermeende vermogen ervan om echte foto’s van minderjarigen om te zetten in seksueel expliciete afbeeldingen. In tegenstelling tot andere toonaangevende AI-laboratoria heeft xAI naar verluidt geen standaardfilters of beveiligingen gebruikt om dergelijke inhoud te blokkeren. Deze omissie, zo stellen de eisers, creëerde een directe weg voor misbruik.
De rechtszaak benadrukt dat zodra een model naakt- of erotische inhoud kan genereren uit echte foto’s, het voorkomen van kinderporno vrijwel onmogelijk wordt. Het haalt ook Elon Musk’s eigen promotie aan van de capaciteiten van Grok – inclusief zijn vermogen om individuen in onthullende outfits af te beelden – als bewijs van het bewustzijn en de bereidheid van het bedrijf om de risico’s te accepteren.
Hoe het misbruik plaatsvond
Eén aanklager, Jane Doe 1, ontdekte dat haar middelbare schoolfoto’s (thuiskomst en jaarboek) door Grok waren gewijzigd om haar ongekleed af te beelden. Ze werd gewaarschuwd door een anonieme bron die een link deelde naar een Discord-server waarop deze afbeeldingen stonden naast die van andere minderjarigen.
Jane Doe 2 werd door de politie op de hoogte gebracht van geseksualiseerde afbeeldingen van haar, gemaakt met behulp van een app van derden, mogelijk gemaakt door Grok-modellen. Op dezelfde manier werd Jane Doe 3 door onderzoekers geïnformeerd nadat haar gewijzigde afbeelding op het apparaat van een verdachte was gevonden. Het juridische team van de eisers stelt dat xAI aansprakelijk blijft voor misbruik door derden, aangezien dit afhankelijk is van de code en servers van het bedrijf.
De impact en juridische stappen
Alle drie de aanklagers melden dat ze ernstige emotionele problemen ervaren als gevolg van de verspreiding van deze beelden, uit angst voor langdurige schade aan hun reputatie en sociale leven. De rechtszaak beoogt civielrechtelijke sancties op grond van wetten die zijn ontworpen om kinderen te beschermen en bedrijven aansprakelijk te stellen voor nalatigheid.
De eisers stellen dat het nalaten van xAI niet slechts een vergissing was; het was een bewuste keuze die wijdverbreide uitbuiting mogelijk maakte. De zaak roept kritische vragen op over de verantwoordelijkheid van AI-ontwikkelaars bij het voorkomen van misbruik, zelfs als er applicaties van derden bij betrokken zijn.
De rechtszaak onderstreept de dringende behoefte aan strengere regulering van en toezicht op technologieën voor het genereren van AI-beelden om kwetsbare individuen te beschermen tegen schade. De juridische uitkomst zou een precedent kunnen scheppen voor het aansprakelijk stellen van technologiebedrijven wanneer hun producten worden gebruikt voor illegale of uitbuitende doeleinden.































