Bencana “Ulasan Pakar”: Bagaimana Ambisi AI Grammarly Menghantam Tembok Etika

22

Transisi dari pemeriksa tata bahasa yang berguna menjadi agen AI yang mencakup segalanya adalah jalan yang penuh dengan ranjau darat yang legal dan etis. Inilah yang terjadi pada Grammarly (sekarang berganti nama menjadi Superhuman ) setelah peluncuran kontroversial dan penghentian fitur “Expert Review” secara cepat.

Apa yang awalnya merupakan upaya untuk memberikan otoritas pada saran yang dihasilkan oleh AI telah berkembang menjadi krisis yang melibatkan penggunaan persamaan yang tidak sah, kutipan yang rusak, dan gugatan class action yang mungkin terjadi.

Bangkit dan Jatuhnya “Ulasan Pakar”

Dalam upaya untuk lebih dari sekadar pemeriksaan ejaan, Grammarly meluncurkan fitur yang disebut Tinjauan Pakar. Premisnya ambisius: AI akan memberikan saran penulisan yang “terinspirasi oleh” para profesional, penulis, dan akademisi terkenal di dunia.

Untuk menambah kesan kredibilitas, antarmuka menampilkan saran-saran ini di samping nama dan ikon gaya verifikasi dari tokoh-tokoh terkenal. Namun, implementasinya mempunyai kelemahan besar:

  • Kesamaan Tidak Sah: Fitur ini menggunakan nama jurnalis yang masih hidup (termasuk staf dari The Verge ), penulis terkenal seperti Stephen King, dan bahkan akademisi yang sudah meninggal seperti Carl Sagan—semuanya tanpa persetujuan atau kompensasi mereka.
  • Otoritas Halusinasi: Alih-alih memberikan wawasan asli, AI sering kali menghasilkan “salad kata” yang umum. Dalam satu contoh, saran yang diberikan kepada jurnalis Nilay Patel hanya menyarankan untuk menambahkan “urgensi” dan “intrik” pada berita utama.
  • Tautan Rusak dan Pengabaian Paywall: Meskipun fitur ini diklaim “terinspirasi” oleh karya yang diterbitkan, tautan sumber yang diberikan sering kali rusak atau dialihkan ke arsip web artikel berbayar yang tidak berisi saran pengeditan yang relevan.

Kegagalan Persetujuan dan Atribusi

Dampak dari penemuan fitur ini memicu perdebatan sengit mengenai definisi atribusi versus apropriasi.

Ketika dihadapkan, CEO Superhuman Shishir Mehrotra membela praktik tersebut dengan menyatakan bahwa AI hanya merujuk pada pekerjaan yang tersedia untuk umum. Namun, para kritikus—termasuk para jurnalis yang namanya digunakan—berpendapat bahwa ada perbedaan mendasar antara mengutip sumber dan “mengarang sesuatu” dan mencantumkan nama seseorang pada sumber tersebut untuk menjual suatu layanan.

“Ini bukan atribusi,” bantah Nilay Patel saat konfrontasi di podcast Decoder. “Kamu baru saja mengarang sesuatu dan menuliskan namaku di atasnya… Itu bukanlah sesuatu yang akan pernah aku katakan.”

Tanggapan awal perusahaan—menawarkan kotak masuk email bagi para ahli untuk “memilih tidak ikut serta”—dikritik secara luas sebagai cara yang tidak memadai untuk menangani penggunaan identitas profesional yang tidak sah. Di bawah tekanan yang kuat, Manusia Super akhirnya menonaktifkan fitur tersebut sepenuhnya, berjanji untuk “menata ulang” fitur tersebut dengan kontrol yang lebih baik bagi para ahli.

Dampak Hukum dan Budaya

Kisah “Expert Review” bukan sekadar kesalahan PR; itu telah memasuki ruang sidang. Jurnalis investigasi Julia Angwin telah mengajukan gugatan class action terhadap Superhuman, dengan tuduhan pelanggaran privasi dan hak publisitas berdasarkan hukum New York dan California.

Di luar legalitas, insiden ini menyoroti meningkatnya ketegangan di era AI: sifat ekstraktif dari model generatif.

Trennya jelas: perusahaan AI memanfaatkan kekayaan intelektual manusia dalam jumlah besar untuk menciptakan produk yang meniru keahlian orang-orang yang mereka “belajar”—seringkali tanpa izin, kredit, atau kompensasi. Hal ini menciptakan hubungan parasit dimana karya pencipta digunakan untuk membangun sebuah alat yang pada akhirnya dapat bersaing dengan mereka.

Kesimpulan

Kontroversi Grammarly/Superhuman menjadi sebuah kisah peringatan bagi industri AI, yang membuktikan bahwa menambahkan nama terkenal pada saran AI tidak menciptakan otoritas—namun justru menciptakan liabilitas. Saat perusahaan berlomba untuk membangun “agen AI”, industri harus memutuskan apakah mereka akan berkolaborasi dengan pakar manusia atau terus berupaya mengotomatisasi identitas mereka tanpa persetujuan.