Organisasi advokasi Austria, Noyb (None of Your Business), kembali melayangkan gugatan terhadap OpenAI, pengembang ChatGPT. Gugatan ini terkait penyebaran informasi keliru yang dihasilkan oleh chatbot AI tersebut, yang telah mencemarkan reputasi seorang pria Norwegia.
Noyb, yang dikenal gigih memperjuangkan perlindungan data, menuduh ChatGPT melakukan “halusinasi” atau menghasilkan kesalahan faktual yang serius. Dalam kasus ini, ChatGPT secara tidak berdasar menuduh seorang pria Norwegia melakukan pembunuhan dua anak dan percobaan pembunuhan terhadap anak ketiga. Tuduhan ini disampaikan saat pria tersebut menanyakan informasi tentang dirinya sendiri kepada ChatGPT.
Parahnya, ChatGPT bukan hanya menuduh pria tersebut melakukan kejahatan yang mengerikan, tetapi juga menyertakan beberapa data pribadi yang akurat. Chatbot tersebut menyebutkan jumlah anak pria tersebut, jenis kelamin mereka, dan bahkan kota tempat tinggalnya. Gabungan informasi palsu dan data pribadi yang benar ini menjadikan situasi semakin memprihatinkan.
Akibatnya, pria tersebut menghadapi reputasi yang rusak akibat informasi keliru yang disebarluaskan oleh ChatGPT. Kesalahan fatal ini menunjukkan bahaya potensial dari teknologi AI yang belum sempurna dan kurangnya mekanisme pengawasan yang efektif.
Pelanggaran GDPR dan Tanggung Jawab OpenAI
Noyb berpendapat bahwa OpenAI melanggar Peraturan Perlindungan Data Umum (GDPR) Uni Eropa. GDPR mensyaratkan agar data pribadi yang diproses harus akurat. Jika tidak akurat, pengguna berhak meminta koreksi. Noyb menilai OpenAI gagal memenuhi standar ini.
Pengacara Noyb, Joakim Söderberg, menekankan bahwa peringatan kecil yang terdapat pada ChatGPT tidak cukup untuk melindungi OpenAI dari tanggung jawab atas informasi yang salah. Peringatan tersebut hanya menyatakan bahwa ChatGPT mungkin membuat kesalahan, namun tidak cukup untuk mencegah dampak merusak dari informasi palsu yang dihasilkan.
Söderberg berpendapat bahwa OpenAI tidak dapat begitu saja menyebarkan informasi palsu dan mengandalkan peringatan singkat sebagai pembenaran. Mereka harus bertanggung jawab atas akurasi informasi yang dihasilkan oleh sistem mereka, apalagi jika informasi tersebut terkait data pribadi seseorang.
Dampak yang Lebih Luas dan Perdebatan Etika
Kasus ini bukan hanya masalah hukum semata, tetapi juga menyoroti dilema etika yang terkait dengan pengembangan dan penggunaan teknologi AI. Kemampuan AI untuk menghasilkan teks yang meyakinkan, meskipun tidak akurat, menimbulkan risiko yang signifikan dalam hal penyebaran informasi palsu dan fitnah.
Peristiwa ini menimbulkan pertanyaan penting mengenai tanggung jawab pengembang AI dalam memastikan akurasi dan keamanan sistem mereka. Bagaimana kita dapat mencegah teknologi AI digunakan untuk mencemarkan reputasi orang lain atau menyebarkan informasi yang menyesatkan? Perlu adanya regulasi yang lebih ketat dan mekanisme pengawasan yang lebih efektif untuk mengatasi tantangan ini.
Kasus ini juga menyoroti pentingnya literasi digital dan kemampuan untuk memverifikasi informasi dari berbagai sumber. Pengguna harus kritis terhadap informasi yang mereka temukan secara online, terutama yang berasal dari sumber otomatis seperti chatbot AI.
Ke depan, perlu ada upaya kolaboratif antara pengembang AI, regulator, dan masyarakat untuk memastikan pengembangan dan penggunaan AI yang bertanggung jawab dan etis. Hal ini meliputi pengembangan teknologi yang lebih akurat, mekanisme verifikasi yang lebih baik, dan edukasi publik tentang potensi bahaya dari informasi palsu yang dihasilkan oleh AI.