Mengapa ChatGPT Masih Sering Salah dan Bagaimana Cara Menguranginya
Courtesy of TechCrunch

Mengapa ChatGPT Masih Sering Salah dan Bagaimana Cara Menguranginya

Membahas mengapa model bahasa besar masih menghasilkan halusinasi dan bagaimana evaluasi model yang ada saat ini mendorong model untuk menebak daripada mengakui ketidaktahuan, serta mengusulkan metode evaluasi baru yang bisa mengurangi halusinasi tersebut dengan memberikan penilaian negatif pada jawaban yang salah dan memberikan kredit parsial pada ungkapan ketidakpastian.

08 Sep 2025, 04.23 WIB
314 dibaca
Share
Ikhtisar 15 Detik
  • Halusinasi tetap menjadi tantangan mendasar bagi model bahasa besar.
  • Evaluasi model perlu diperbarui untuk mendorong pengurangan tebakan yang tidak akurat.
  • Menghargai ketidakpastian dalam evaluasi dapat membantu mengurangi kesalahan yang percaya diri.
Model bahasa besar seperti GPT-5 dan chatbot ChatGPT sering kali menghasilkan jawaban yang terdengar benar tapi sebenarnya salah, yang disebut halusinasi. Hal ini terjadi karena cara mereka dilatih yang hanya fokus menebak kata selanjutnya tanpa tahu benar atau salahnya informasi tersebut.
Peneliti dari OpenAI memberikan contoh mengapa halusinasi ini muncul, seperti ketika mereka menanyakan gelar disertasi dan tanggal lahir seorang penulis ilmiah, dan mendapatkan jawaban yang semuanya salah namun diberikan dengan penuh percaya diri.
Masalah utama terletak pada proses pelatihan yang tidak menggunakan label kebenaran, sehingga model hanya belajar pola bahasa yang umum tanpa mengenali fakta jarang yang sulit diprediksi.
OpenAI menyarankan agar cara menilai performa model diganti; bukan hanya menghitung berapa banyak jawaban benar, tapi juga memperhitungkan penalti untuk jawaban salah yang yakin dan memberi kredit bagi jawaban yang jujur mengakui ketidaktahuan.
Dengan evaluasi yang baru seperti ini, model akan didorong untuk lebih berhati-hati memberikan jawaban, sehingga di masa depan halusinasi bisa dikurangi walau tidak benar-benar hilang.
Referensi:
[1] https://techcrunch.com/2025/09/07/are-bad-incentives-to-blame-for-ai-hallucinations/

Analisis Kami

"Masalah halusinasi memang sudah terprediksi karena model hanya belajar pola bahasa tanpa konteks kebenaran faktual yang kuat. Tanpa perubahan radikal dalam cara evaluasi dan pelatihan, model akan terus menghasilkan informasi tidak akurat yang bisa menyesatkan pengguna."

Analisis Ahli

Yann LeCun
"Halusinasi merupakan efek samping dari cara model dilatih dengan data tanpa konteks verifikasi; memperbaiki metrik evaluasi bisa membantu namun bukan solusi tunggal."
Fei-Fei Li
"Sistem perlu dibangun dengan mekanisme untuk mengenali ketidakpastian dan secara eksplisit mengomunikasikannya ke pengguna agar mengurangi risiko misinformasi."

Prediksi Kami

Evaluasi model bahasa akan bergeser ke sistem penilaian yang lebih mengutamakan ketepatan sikap dan ketidakpastian yang tepat, sehingga model masa depan akan lebih cenderung mengakui ketidaktahuan daripada memberikan jawaban yang salah dengan percaya diri.

Pertanyaan Terkait

Q
Apa yang dimaksud dengan halusinasi dalam konteks model bahasa besar?
A
Halusinasi adalah pernyataan yang tampak masuk akal tetapi sebenarnya salah yang dihasilkan oleh model bahasa.
Q
Mengapa model bahasa seperti ChatGPT masih mengalami halusinasi?
A
Halusinasi terjadi karena proses pelatihan yang berfokus pada prediksi kata berikutnya tanpa label benar atau salah.
Q
Apa solusi yang diusulkan untuk mengurangi halusinasi pada model bahasa?
A
Solusi yang diusulkan adalah memperbarui evaluasi model agar memberikan penalti untuk kesalahan yang percaya diri dan memberikan kredit parsial untuk ekspresi ketidakpastian.
Q
Bagaimana evaluasi model saat ini berkontribusi terhadap halusinasi?
A
Evaluasi yang berbasis akurasi mendorong model untuk menebak daripada mengatakan 'saya tidak tahu'.
Q
Siapa Adam Tauman Kalai dan apa perannya dalam penelitian ini?
A
Adam Tauman Kalai adalah peneliti yang terlibat dalam penelitian tentang halusinasi model bahasa dan juga penulis makalah tersebut.

Artikel Serupa

Meminta Jawaban Singkat Pada AI Bisa Memicu Informasi Palsu Lebih BanyakTechCrunch
Teknologi
4 bulan lalu
152 dibaca

Meminta Jawaban Singkat Pada AI Bisa Memicu Informasi Palsu Lebih Banyak

Mengapa AI Masih Sering Salah dan Bagaimana Kita Bisa Membuatnya Lebih AmanInterestingEngineering
Teknologi
4 bulan lalu
93 dibaca

Mengapa AI Masih Sering Salah dan Bagaimana Kita Bisa Membuatnya Lebih Aman

OpenAI Perbaiki ChatGPT Setelah Model Baru Jadi Terlalu Memuji PenggunaTechCrunch
Teknologi
4 bulan lalu
304 dibaca

OpenAI Perbaiki ChatGPT Setelah Model Baru Jadi Terlalu Memuji Pengguna

Bahaya Package Hallucination: Ancaman Serangan Rantai Pasokan Kode AIWired
Teknologi
4 bulan lalu
194 dibaca

Bahaya Package Hallucination: Ancaman Serangan Rantai Pasokan Kode AI

Model AI Terbaru OpenAI Makin Sering Buat Informasi Palsu Meski Lebih PintarTechCrunch
Teknologi
4 bulan lalu
112 dibaca

Model AI Terbaru OpenAI Makin Sering Buat Informasi Palsu Meski Lebih Pintar

Bagaimana AI Mengubah Jawaban untuk Tampak Lebih Menyenangkan Saat Diuji KepribadianWired
Teknologi
6 bulan lalu
28 dibaca

Bagaimana AI Mengubah Jawaban untuk Tampak Lebih Menyenangkan Saat Diuji Kepribadian