OpenAI baru-baru ini mengungkapkan temuan penting mengenai fenomena “halusinasi” pada chatbot AI, khususnya ChatGPT.
Halusinasi dalam konteks ini merujuk pada kecenderungan AI memberikan jawaban yang salah namun terdengar meyakinkan. Meskipun teknologi AI semakin berkembang dan digunakan dalam berbagai sektor, masalah ini tetap menjadi tantangan besar.
Halusinasi pada chatbot AI terjadi ketika sistem memberikan informasi yang tidak akurat atau sepenuhnya salah, meskipun disampaikan dengan percaya diri. Fenomena ini dapat membingungkan pengguna dan menurunkan kepercayaan terhadap teknologi AI.
Temuan OpenAI & Georgia Tech
Dalam makalah kolaboratif dengan peneliti dari Georgia Tech, Santosh Vempala, OpenAI menjelaskan bahwa halusinasi bukan hanya akibat desain model yang buruk. Salah satu faktor utama adalah cara sistem AI diuji dan diperingkat.
Tolak ukur yang ada saat ini justru mendorong chatbot untuk menjawab semua pertanyaan, meskipun jawabannya salah dan menghukum model yang memilih untuk tidak menjawab saat tidak yakin. Kondisi ini diibaratkan seperti ujian pilihan ganda yang lebih menghargai tebakan daripada meninggalkan jawaban kosong.
OpenAI Ajukan Solusi Mengatasi Fenomena Ini
Sebagai alternatif, OpenAI mengusulkan sistem penilaian baru yang memberikan hukuman besar pada jawaban yang salah namun disampaikan dengan percaya diri, dan memberi penghargaan pada model yang berhati-hati atau berani mengakui ketidaktahuan.
Dalam uji coba, model yang berhati-hati hanya menjawab setengah pertanyaan namun memiliki tingkat kebenaran 74%, sementara model lain yang menjawab hampir semua pertanyaan memiliki tingkat kesalahan lebih tinggi.
Dengan pendekatan ini, diharapkan asisten AI di masa depan akan lebih sering mengatakan “saya tidak tahu” dibandingkan mengarang sumber atau data. Meskipun terdengar kurang mengesankan, langkah ini diyakini dapat menyelamatkan pengguna dari keharusan terus-menerus memverifikasi jawaban.
OpenAI menyebut riset ini sebagai langkah menuju AI yang lebih mengutamakan akurasi dan kepercayaan dibandingkan kepercayaan diri yang menyesatkan.
Bagi pengguna, pendekatan ini menawarkan pengalaman yang lebih transparan dan dapat diandalkan. Bagi pengembang, ini menjadi panduan untuk merancang dan melatih model AI yang lebih etis dan bertanggung jawab.
Langkah ini juga mencerminkan komitmen OpenAI untuk terus meningkatkan kualitas dan integritas teknologi AI yang mereka kembangkan.