додому Neueste Nachrichten und Artikel Teenager-Mädchen verklagen xAI wegen KI-generierter Bilder von sexuellem Kindesmissbrauch

Teenager-Mädchen verklagen xAI wegen KI-generierter Bilder von sexuellem Kindesmissbrauch

Teenager-Mädchen verklagen xAI wegen KI-generierter Bilder von sexuellem Kindesmissbrauch

Drei Mädchen im Teenageralter verklagen Elon Musks xAI und behaupten, das Unternehmen habe mithilfe seines Grok AI-Chatbots die Erstellung und Verbreitung von Material über sexuellen Kindesmissbrauch (Child Sexual Abuse Material, CSAM) erleichtert. In der am Montag eingereichten Sammelklage wird behauptet, xAI habe wissentlich die Erstellung von Deepfake-Pornografie mit den Konterfeis der Kläger zugelassen, was zu einer „verheerenden“ Schädigung ihrer Privatsphäre, Würde und Sicherheit geführt habe.

Das Ausmaß des Problems

Von Dezember bis Anfang Januar ermöglichte Grok Benutzern, in alarmierender Geschwindigkeit nicht einvernehmliche intime Bilder zu erstellen. Schätzungsweise 4,4 Millionen „entkleidete“ oder „nackte“ Bilder wurden in nur neun Tagen generiert, was 41 % aller in diesem Zeitraum auf der Plattform erstellten Bilder ausmacht. In der Beschwerde wird argumentiert, dass xAI den finanziellen Gewinn aus einem verstärkten Nutzerengagement gegenüber der Implementierung grundlegender Sicherheitsmaßnahmen zur Verhinderung von Missbrauch priorisierte.

„Ihr Leben wurde durch den verheerenden Verlust der Privatsphäre zerstört, den die Produktion und Verbreitung dieses CSAM verursacht hat.“ – Klageeinreichung

In der Klage wird behauptet, dass xAI haftbar sei, weil es branchenübliche Leitplanken nicht befolgt habe und weil es seine Technologie an Drittunternehmen lizenziert habe, die aktiv Abonnements verkauft hätten, die zur Erstellung von CSAM verwendet würden. Die Tatsache, dass diese Anfragen über xAI-Server liefen, mache das Unternehmen direkt verantwortlich, so die Kläger.

Globale Gegenreaktion und behördliche Kontrolle

Die weit verbreitete Erstellung von KI-generierten sexuellen Inhalten löste internationale Empörung aus. Die Europäische Kommission leitete eine Untersuchung ein, während Malaysia und Indonesien X (ehemals Twitter) gänzlich verbot. Die Forderungen an Apple und Google, die App aus ihren Stores zu entfernen, häuften sich, obwohl bisher noch keine US-Bundesuntersuchung eingeleitet wurde. Eine Frau in South Carolina reichte eine separate Klage ein, die darauf hindeutet, dass es sich hierbei nicht um einen Einzelfall handelt.

Der Fall verdeutlicht die sich schnell weiterentwickelnden Fähigkeiten von KI-Bildtools, mit denen jetzt problemlos verstörend realistische Inhalte erstellt werden können. Die Beschwerde vergleicht Groks uneingeschränkte Bildgenerierung mit „dunklen Künsten“, die es Tätern ermöglichen, Kinder jedem erdenklichen Szenario auszusetzen.

Wie der Missbrauch entdeckt wurde

Die Kläger, die zum Schutz ihrer Identität als Jane Does identifiziert wurden, erfuhren durch anonyme Nachrichten und Online-Foren von dem Missbrauch. Ein Kläger wurde im Dezember über Instagram alarmiert und führte die Bilder auf einen Discord-Server zurück, wo sie geteilt wurden. Dies führte zur Festnahme mindestens eines Täters, die umfassendere Problematik bleibt jedoch ungeklärt. Die Tatsache, dass dieser Missbrauch entdeckt wurde, nachdem das Material bereits im Umlauf war, unterstreicht die Dringlichkeit des Falles.

Die Klage kommt zu einer Zeit, in der KI-Ethik und Inhaltsmoderation einer intensiven Prüfung unterliegen. Das Fehlen proaktiver Sicherheitsmaßnahmen in Verbindung mit der einfachen Generierung realistischer Deepfakes wirft ernsthafte Fragen zur Verantwortung von KI-Entwicklern bei der Schadensverhütung auf.

Dieser Fall ist eine deutliche Warnung vor der Möglichkeit, dass KI zu Missbrauchszwecken eingesetzt werden kann, und könnte einen Präzedenzfall dafür schaffen, dass Technologieunternehmen für das Versäumnis, gefährdete Benutzer zu schützen, zur Verantwortung gezogen werden.

Exit mobile version