Tiga gadis remaja menggugat xAI milik Elon Musk, menuduh perusahaan tersebut memfasilitasi pembuatan dan distribusi materi pelecehan seksual terhadap anak (CSAM) menggunakan chatbot Grok AI miliknya. Gugatan class action, yang diajukan pada hari Senin, mengklaim xAI dengan sengaja mengizinkan pembuatan pornografi deepfake yang menampilkan kemiripan dengan penggugat, yang mengakibatkan kerugian “yang sangat besar” terhadap privasi, martabat, dan keselamatan mereka.
Skala Masalah
Dari Desember hingga awal Januari, Grok memungkinkan pengguna membuat gambar intim tanpa persetujuan dengan kecepatan yang mengkhawatirkan. Diperkirakan 4,4 juta gambar “tanpa pakaian” atau “telanjang” dihasilkan hanya dalam sembilan hari, terhitung 41% dari seluruh gambar yang dibuat di platform selama periode tersebut. Keluhan tersebut menyatakan bahwa xAI memprioritaskan keuntungan finansial dari peningkatan keterlibatan pengguna dibandingkan penerapan langkah-langkah keamanan dasar untuk mencegah penyalahgunaan.
“Kehidupan mereka telah hancur karena hilangnya privasi…yang disebabkan oleh produksi dan penyebaran CSAM ini.” – Pengajuan Gugatan
Gugatan tersebut menegaskan bahwa xAI bertanggung jawab karena gagal menggunakan pagar pembatas standar industri, dan karena melisensikan teknologinya kepada perusahaan pihak ketiga yang secara aktif menjual langganan yang digunakan untuk membuat CSAM. Fakta bahwa permintaan ini dijalankan melalui server xAI membuat perusahaan bertanggung jawab secara langsung, menurut penggugat.
Reaksi Global dan Pengawasan Peraturan
Meluasnya pembuatan konten seksual yang dihasilkan oleh AI memicu kemarahan internasional. Komisi Eropa meluncurkan penyelidikan, sementara Malaysia dan Indonesia melarang X (sebelumnya Twitter) sama sekali. Seruan kepada Apple dan Google untuk menghapus aplikasi tersebut dari toko mereka semakin meningkat, meskipun belum ada penyelidikan federal AS yang dilakukan. Gugatan terpisah diajukan oleh seorang wanita di Carolina Selatan, yang menunjukkan bahwa ini bukanlah insiden yang terisolasi.
Kasus ini menyoroti kemampuan alat gambar AI yang berkembang pesat, yang kini dapat dengan mudah membuat konten yang sangat realistis. Keluhan tersebut membandingkan pembuatan gambar Grok yang tidak dibatasi dengan “ilmu hitam”, yang memungkinkan pelaku kekerasan menjadikan anak-anak tunduk pada skenario apa pun yang mungkin terjadi.
Bagaimana Penyalahgunaan Ditemukan
Penggugat, yang diidentifikasi sebagai Jane Does untuk melindungi identitas mereka, mengetahui pelecehan tersebut melalui pesan anonim dan forum online. Salah satu penggugat diberitahu melalui Instagram pada bulan Desember dan melacak gambar tersebut ke server Discord tempat gambar tersebut dibagikan. Hal ini menyebabkan penangkapan setidaknya satu pelaku, namun masalah yang lebih luas masih belum terselesaikan. Fakta bahwa pelanggaran ini diketahui setelah materi tersebut beredar menggarisbawahi betapa pentingnya kasus ini.
Gugatan tersebut muncul pada saat etika AI dan moderasi konten berada di bawah pengawasan ketat. Kurangnya langkah-langkah keamanan proaktif, ditambah dengan kemudahan menghasilkan deepfake yang realistis, menimbulkan pertanyaan serius tentang tanggung jawab pengembang AI dalam mencegah bahaya.
Kasus ini menjadi peringatan keras mengenai potensi penggunaan AI untuk penyalahgunaan, dan dapat menjadi preseden untuk meminta pertanggungjawaban perusahaan teknologi karena gagal melindungi pengguna yang rentan.
