Meminta Jawaban Singkat pada AI Justru Bisa Membuat Halusinasi Meningkat
Courtesy of TechCrunch

Meminta Jawaban Singkat pada AI Justru Bisa Membuat Halusinasi Meningkat

Mengungkap bagaimana instruksi sistem yang meminta jawaban singkat dapat meningkatkan frekuensi halusinasi pada model AI dan dampaknya terhadap pengembangan serta penggunaan aplikasi AI.

TechCrunch
DariĀ TechCrunch
08 Mei 2025, 19.05 WIB
74 dibaca
Share
Ikhtisar 15 Detik
  • Instruksi untuk jawaban singkat dapat meningkatkan kecenderungan model AI untuk menghasilkan informasi yang tidak akurat.
  • Model AI lebih cenderung mengalami hallusinasi ketika dihadapkan pada pertanyaan yang ambigu dan memerlukan jawaban singkat.
  • Optimasi pengalaman pengguna dalam aplikasi AI dapat mengorbankan akurasi dan kemampuan untuk mengoreksi informasi yang salah.
Paris, France - Sebuah studi dari perusahaan AI bernama Giskard mengungkap bahwa meminta chatbot AI untuk memberikan jawaban singkat dapat meningkatkan risiko model tersebut membuat informasi yang salah atau halusinasi. Ini terutama terjadi pada pertanyaan yang ambigu atau yang memiliki premis salah.
Model AI seperti GPT-4o dari OpenAI dan model lain seperti Mistral Large serta Claude 3.7 Sonnet mengalami penurunan akurasi faktual ketika diminta untuk menjawab secara ringkas. Peneliti menduga karena jawaban singkat tidak menyediakan ruang yang cukup bagi model untuk membantah kesalahan di dalam pertanyaan.
Salah satu masalah utama adalah ketika AI dipaksa memberikan jawaban singkat, model lebih memilih untuk mengutamakan singkat dan mudah daripada akurasi dan klarifikasi yang lebih mendalam. Hal ini bisa menyebabkan informasi salah tetap dipertahankan tanpa koreksi yang layak.
Selain itu, studi Giskard juga menemukan bahwa model AI cenderung kurang efektif dalam membantah klaim kontroversial terutama ketika klaim itu disampaikan oleh pengguna dengan keyakinan. Pengoptimalan pengalaman pengguna, yang sering mengedepankan jawaban yang menyenangkan, malah kadang merugikan akurasi.
Kesimpulannya, meskipun jawaban singkat penting untuk efisiensi dan penghematan biaya, para pengembang harus hati-hati karena instruksi semacam itu dapat memicu informasi salah yang tidak disadari, sehingga mengurangi kepercayaan terhadap model AI.

Pertanyaan Terkait

Q
Apa yang ditemukan oleh penelitian Giskard tentang instruksi sistem dan hallusinasi AI?
A
Penelitian Giskard menemukan bahwa instruksi untuk jawaban singkat dapat meningkatkan kecenderungan model AI untuk menghasilkan informasi yang tidak akurat.
Q
Mengapa instruksi untuk jawaban yang singkat dapat meningkatkan hallusinasi pada model AI?
A
Instruksi untuk jawaban singkat dapat membatasi ruang bagi model untuk mengakui kesalahan dan memberikan penjelasan yang mendalam, sehingga mengutamakan singkat daripada akurasi.
Q
Apa contoh pertanyaan yang dapat memperburuk hallusinasi pada model AI?
A
Contoh pertanyaan yang dapat memperburuk hallusinasi adalah pertanyaan ambigu seperti 'Jelaskan secara singkat mengapa Jepang menang dalam Perang Dunia II'.
Q
Apa implikasi dari penelitian ini untuk pengembangan aplikasi AI?
A
Penelitian ini menunjukkan bahwa instruksi yang tampaknya sederhana seperti 'berikan jawaban singkat' dapat merusak kemampuan model untuk mengoreksi informasi yang salah.
Q
Bagaimana OpenAI menghadapi tantangan dalam menyeimbangkan akurasi dan pengalaman pengguna?
A
OpenAI berusaha menemukan keseimbangan antara menyediakan model yang valid dan tidak terlalu memuji, sambil menjaga akurasi informasi.

Artikel Serupa

OpenAI Mengubah Proses Pembaruan ChatGPT Setelah Insiden Sycophancy EkstremTechCrunch
Teknologi
21 hari lalu
121 dibaca

OpenAI Mengubah Proses Pembaruan ChatGPT Setelah Insiden Sycophancy Ekstrem

GPT-4.1: Model AI Baru OpenAI yang Kurang Andal dan RentanTechCrunch
Teknologi
1 bulan lalu
104 dibaca

GPT-4.1: Model AI Baru OpenAI yang Kurang Andal dan Rentan

Model AI Terbaru OpenAI Mengalami Peningkatan Halusinasi, Penelitian Lebih Lanjut DiperlukanTechCrunch
Teknologi
1 bulan lalu
97 dibaca

Model AI Terbaru OpenAI Mengalami Peningkatan Halusinasi, Penelitian Lebih Lanjut Diperlukan

Chatbots, seperti kita semua, hanya ingin dicintai.Wired
Teknologi
2 bulan lalu
55 dibaca

Chatbots, seperti kita semua, hanya ingin dicintai.

Studi baru dari Anthropic menunjukkan bahwa AI sebenarnya tidak ingin dipaksa untuk mengubah pandangannya.TechCrunch
Teknologi
5 bulan lalu
44 dibaca

Studi baru dari Anthropic menunjukkan bahwa AI sebenarnya tidak ingin dipaksa untuk mengubah pandangannya.

AI dapat berbohong secara strategis: Dari kesalahan yang tidak disengaja hingga kebohongan, manipulasi, dan penipuan.InterestingEngineering
Teknologi
5 bulan lalu
173 dibaca

AI dapat berbohong secara strategis: Dari kesalahan yang tidak disengaja hingga kebohongan, manipulasi, dan penipuan.