Sekelompok pengguna anonim di Discord mengklaim telah melewati langkah-langkah keamanan untuk mengakses Claude Mythos Preview, model AI yang sangat sensitif dan belum pernah dirilis dari Anthropic. Pelanggaran ini sangat mengkhawatirkan karena kemampuan khusus yang dikaitkan dengan model ini.
Taruhannya: Model yang Dirancang untuk Perang Dunia Maya
Anthropic telah mengkategorikan Claude Mythos sebagai alat yang berpotensi mengubah paradigma dengan implikasi keamanan yang signifikan. Menurut perusahaan, model tersebut mampu:
– Mengidentifikasi kerentanan zero-day (kelemahan yang sebelumnya tidak diketahui) pada sistem operasi utama.
– Memanfaatkan kelemahan di setiap web browser utama.
Karena kemampuan ini, Anthropic menjaga modelnya tetap aman melalui Project Glasswing. Inisiatif khusus undangan ini dirancang untuk memberikan akses hanya kepada sekelompok pemimpin teknologi terpilih, dengan tujuan menggunakan AI untuk mengamankan perangkat lunak global yang penting. Namun, pelanggaran yang dilaporkan menunjukkan bahwa alat yang dimaksudkan untuk mendefinisikan ulang keamanan siber mungkin telah disusupi oleh kesalahan manusia dan prosedur yang sederhana.
Bagaimana Pelanggaran Terjadi: Tebakan dan Akses Orang Dalam
Bertentangan dengan apa yang diharapkan dari pelanggaran yang melibatkan AI yang begitu kuat, intrusi tersebut bukanlah hasil dari eksploitasi teknis yang canggih. Sebaliknya, hal ini tampaknya merupakan kombinasi dari pengenalan pola dan bantuan orang dalam:
- Pengenalan Pola: Menggunakan data dari pelanggaran baru-baru ini di startup AI Mercor, kelompok ini mengidentifikasi konvensi penamaan Anthropic. Hal ini memungkinkan mereka menebak lokasi online dari model yang belum dirilis.
- Akses Orang Dalam: Setelah lokasi diidentifikasi, kelompok tersebut menggunakan akses istimewa yang diberikan oleh anggota yang bekerja untuk kontraktor pihak ketiga untuk Anthropic.
Grup ini beroperasi dalam saluran Discord pribadi yang didedikasikan untuk mencari informasi mengenai model AI yang belum dirilis. Meskipun para anggota mengklaim bahwa mereka menggunakan alat ini untuk tugas-tugas yang tidak berbahaya—seperti membuat situs web sederhana—mereka juga menegaskan bahwa mereka memiliki akses ke lebih banyak lagi model Antropik yang belum dirilis.
Situasi Saat Ini
Anthropic telah mengkonfirmasi kepada Bloomberg bahwa mereka mengetahui klaim tersebut dan saat ini sedang melakukan penyelidikan. Meskipun kelompok tersebut memberikan cukup bukti untuk mendukung akses mereka, saat ini tidak ada indikasi bahwa pihak tidak berwenang lainnya telah melanggar sistem.
Insiden ini menyoroti meningkatnya ketegangan dalam industri AI: ketika model menjadi lebih mampu mengotomatisasi serangan siber, protokol keamanan yang melindunginya harus menjadi lebih kuat secara eksponensial.
Kesimpulan
Akses yang dilaporkan ke Claude Mythos memperlihatkan kerentanan kritis dalam cara perusahaan AI mengelola model yang sangat sensitif dan berisiko tinggi. Jika model yang mampu membentuk kembali keamanan siber dapat diakses melalui dugaan sederhana dan akses kontraktor, hal ini akan menimbulkan pertanyaan mendesak tentang keamanan kecerdasan buatan generasi berikutnya.































