Nastolatki pozywają xAI za wygenerowane przez sztuczną inteligencję obrazy przedstawiające wykorzystywanie seksualne dzieci

19

Trzy nieletnie dziewczynki pozwały xAI, firmę Elona Muska, twierdząc, że ułatwiała ona tworzenie i dystrybucję pornografii dziecięcej (CSAM) za pomocą chatbota Grok opartego na sztucznej inteligencji. W pozwie zbiorowym złożonym w poniedziałek zarzuca się, że xAI świadomie zezwoliła na generowanie fałszywej pornografii z wykorzystaniem wizerunków powodów, co miało „niszczycielskie” konsekwencje dla ich prywatności, godności i bezpieczeństwa.

Skala problemu

Od grudnia do początku stycznia Grok umożliwiał użytkownikom tworzenie intymnych obrazów bez ich zgody w zastraszającym tempie. Szacuje się, że w ciągu zaledwie dziewięciu dni wygenerowano 4,4 miliona zdjęć „rozebranych” lub „nagich”, co stanowi 41% wszystkich zdjęć wygenerowanych na platformie w tym okresie. W skardze zarzuca się, że xAI przedłożyła korzyści finansowe wynikające ze zwiększenia zaangażowania użytkowników nad wdrożeniem podstawowych środków bezpieczeństwa w celu zapobiegania nadużyciom.

„Ich życie zostało zrujnowane przez straszliwą utratę prywatności… spowodowaną produkcją i dystrybucją tego CSAM.” – Z pozwu

W pozwie zarzuca się, że xAI ponosi odpowiedzialność, ponieważ nie stosowała branżowych standardów bezpieczeństwa i udzieliła licencji na swoją technologię firmom zewnętrznym, które aktywnie sprzedawały subskrypcje wykorzystywane do tworzenia CSAM. Zdaniem powodów fakt, że żądania te przeszły przez serwery xAI, powoduje, że firma ponosi bezpośrednią odpowiedzialność.

Globalna reakcja i nadzór regulacyjny

Powszechne tworzenie treści seksualnych generowanych przez sztuczną inteligencję wywołało międzynarodowe oburzenie. Komisja Europejska wszczęła dochodzenie, a Malezja i Indonezja całkowicie zakazały X (dawniej Twitter). Wzrosły żądania, aby Apple i Google usunęły aplikację ze swoich sklepów, chociaż w USA nie przeprowadzono jeszcze dochodzenia federalnego. Kobieta z Karoliny Południowej złożyła osobny pozew, wskazując, że nie jest to odosobniony przypadek.

Sprawa podkreśla szybko rozwijające się możliwości narzędzi do tworzenia obrazów opartych na sztucznej inteligencji, które mogą teraz z łatwością tworzyć niepokojąco realistyczne treści. W skardze porównano nieograniczone generowanie obrazów przez Groka do „czarnej magii”, umożliwiającej napastnikom poddawanie dzieci dowolnemu możliwemu scenariuszowi.

Jak odkryto nadużycie

Powodowie, w celu ochrony swojej tożsamości zidentyfikowani jako Jane Doe, dowiedzieli się o molestowaniu za pośrednictwem anonimowych wiadomości i forów internetowych. Jeden z powodów otrzymał powiadomienie za pośrednictwem Instagrama w grudniu i prześledził zdjęcia na serwerze Discord, gdzie je udostępnił. Doprowadziło to do aresztowania co najmniej jednego sprawcy, ale szerszy problem pozostaje nierozwiązany. Fakt, że nadużycie to wykryto po rozesłaniu materiału, podkreśla pilność tej sprawy.

Pozew pojawia się w momencie, gdy badana jest etyka sztucznej inteligencji i moderowanie treści. Brak proaktywnych środków bezpieczeństwa w połączeniu z łatwością tworzenia realistycznych deepfakes rodzi poważne pytania dotyczące odpowiedzialności twórców sztucznej inteligencji za zapobieganie szkodom.

Sprawa stanowi wyraźne ostrzeżenie przed możliwością wykorzystania sztucznej inteligencji do złośliwych celów i może stanowić precedens w pociąganiu firm technologicznych do odpowiedzialności za brak ochrony bezbronnych użytkowników.