GPT-5 OpenAI Kurangi Kesalahan Halusinasi, Namun Tantangan Masih Ada
Courtesy of NatureMagazine

GPT-5 OpenAI Kurangi Kesalahan Halusinasi, Namun Tantangan Masih Ada

Memberikan informasi tentang bagaimana OpenAI mengurangi frekuensi kesalahan berupa halusinasi dan kutipan palsu di GPT-5 serta tantangan yang masih dihadapi dalam menjamin akurasi dan kejujuran AI.

08 Sep 2025, 07.00 WIB
44 dibaca
Share
Ikhtisar 15 Detik
  • GPT-5 menunjukkan kemajuan dalam mengurangi hallusinasi dan kutipan palsu.
  • Model ini masih menghadapi tantangan dalam bidang teknis seperti hukum dan matematika.
  • Akses internet meningkatkan akurasi GPT-5 dalam memberikan informasi yang relevan.
San Francisco, Amerika Serikat - Model kecerdasan buatan seperti GPT kerap menghasilkan informasi yang salah dan kutipan palsu. Ini disebut halusinasi, yang terjadi karena cara kerja AI yang memprediksi kata berdasarkan pola data sebelumnya tanpa menjamin kebenaran. OpenAI baru-baru ini meluncurkan GPT-5 yang dirancang untuk mengurangi kesalahan ini, berbeda dengan tren model AI lain yang justru lebih sering berhalusinasi.
Dalam pengujian dengan benchmark ScholarQA-CS, GPT-5 menunjukkan performa mendekati manusia saat diberi akses internet untuk memverifikasi jawaban. Model ini juga lebih jujur dengan lebih jarang mengklaim telah menyelesaikan tugas yang faktanya mustahil. Namun, di bidang seperti matematika dan hukum, GPT-5 masih menghadapi hambatan besar, terutama saat offline.
OpenAI mengakui bahwa halusinasi tidak bisa dihilangkan sepenuhnya karena model ini hanya melakukan generalisasi statistik. Namun tim mereka membuat kemajuan dengan membesarkan model, memperbanyak data pelatihan, dan melatih AI untuk berkata jujur bila tidak tahu jawaban. Meski begitu, kesalahan tetap muncul dan pengguna harus menyikapinya dengan hati-hati.
Selain GPT-5, ada kompetitor lain seperti Google Gemini 2.0 yang sedikit lebih unggul dalam beberapa pengujian terkait halusinasi dan keakuratan. Namun secara umum, model-model ini sudah jauh membaik dibanding versi sebelumnya. Kunci keberhasilan adalah kemampuan AI untuk browsing dan memastikan sumber data terpercaya saat menjawab pertanyaan terbuka.
Perkembangan GPT-5 menunjukkan AI semakin bisa diandalkan untuk tugas-tugas kompleks seperti review literatur ilmiah. Meski begitu, para ahli mengingatkan bahwa pengguna harus terus kritis karena AI masih bisa membuat kesalahan dan kadang tidak mengakui keterbatasannya. Masa depan AI akan fokus pada pengurangan kesalahan dan peningkatan kejujuran dalam interaksi manusia.
Referensi:
[1] https://nature.com/articles/d41586-025-02853-8

Analisis Kami

"Penurunan halusinasi di GPT-5 menunjukkan kemajuan signifikan dalam desain model AI, tetapi kegagalan dalam tugas sederhana menandakan masih adanya batasan fundamental pada pendekatan statistik. OpenAI harus menggabungkan metode yang memungkinkan AI untuk rutin mengaku tidak tahu agar kepercayaan pengguna tidak terganggu."

Analisis Ahli

Tianyang Xu
"Saat ini tingkat halusinasi GPT-5 berada pada level yang dapat diterima sebagian besar pengguna kecuali pada topik teknis yang kompleks."
Mark Steyvers
"Meski ada kemajuan, model masih terlalu jarang berkata 'saya tidak tahu', sebuah aspek penting untuk keandalan AI."
Mushtaq Bilal
"Menghilangkan halusinasi sepenuhnya mungkin mustahil, tetapi fokus harus pada mengurangi kesalahan dan meningkatkan transparansi."
Saachi Jain
"Penekanan OpenAI pada pelatihan dengan reward jujur dan kemampuan browsing menunjang pengurangan halusinasi pada GPT-5."
Akari Asai
"GPT-5 unggul saat online karena bisa cross-check, tapi kesalahan signifikan muncul saat offline."

Prediksi Kami

Di masa depan, model AI akan terus berkembang dengan kemampuan verifikasi sumber yang lebih baik dan kejujuran yang lebih tinggi, meskipun halusinasi tidak akan sepenuhnya hilang.

Pertanyaan Terkait

Q
Apa yang dikatakan OpenAI tentang GPT-5 terkait dengan kutipan palsu?
A
OpenAI mengklaim bahwa GPT-5 telah mengurangi frekuensi kutipan palsu dan jenis hallusinasi lainnya.
Q
Bagaimana GPT-5 dibandingkan dengan model sebelumnya dalam hal akurasi?
A
GPT-5 mengungguli model sebelumnya dalam benchmark yang menguji kemampuan menghasilkan respons berbasis kutipan.
Q
Apa penyebab utama terjadinya hallusinasi pada model bahasa?
A
Hallusinasi disebabkan oleh cara kerja model bahasa yang bersifat statistik dan tidak mengakui ketidakpastian.
Q
Apa fitur baru yang diperkenalkan OpenAI dalam pelatihan GPT-5?
A
OpenAI berfokus pada pelatihan model untuk menjelajahi informasi terkini dan mengurangi hallusinasi dalam respons panjang.
Q
Bagaimana kinerja GPT-5 jika tidak memiliki akses internet?
A
Tanpa akses internet, GPT-5 mengalami peningkatan kesalahan dalam kutipan dan informasi yang dihasilkan.

Artikel Serupa

Meminta Jawaban Singkat Pada AI Bisa Memicu Informasi Palsu Lebih BanyakTechCrunch
Teknologi
4 bulan lalu
152 dibaca

Meminta Jawaban Singkat Pada AI Bisa Memicu Informasi Palsu Lebih Banyak

Mengapa AI Masih Sering Salah dan Bagaimana Kita Bisa Membuatnya Lebih AmanInterestingEngineering
Teknologi
4 bulan lalu
93 dibaca

Mengapa AI Masih Sering Salah dan Bagaimana Kita Bisa Membuatnya Lebih Aman

GPT-4.1 OpenAI: Model Baru yang Lebih Kuat Tapi Kurang Aman dan AndalanTechCrunch
Teknologi
4 bulan lalu
255 dibaca

GPT-4.1 OpenAI: Model Baru yang Lebih Kuat Tapi Kurang Aman dan Andalan

Model AI Terbaru OpenAI Makin Sering Buat Informasi Palsu Meski Lebih PintarTechCrunch
Teknologi
4 bulan lalu
112 dibaca

Model AI Terbaru OpenAI Makin Sering Buat Informasi Palsu Meski Lebih Pintar

OpenAI Luncurkan GPT-4.5, Model Besar tapi Bukan Terobosan Baru AITechCrunch
Teknologi
6 bulan lalu
87 dibaca

OpenAI Luncurkan GPT-4.5, Model Besar tapi Bukan Terobosan Baru AI

OpenAI Luncurkan GPT-4.5 Dengan Kemampuan Emosi dan Pemahaman Lebih BaikWired
Teknologi
6 bulan lalu
78 dibaca

OpenAI Luncurkan GPT-4.5 Dengan Kemampuan Emosi dan Pemahaman Lebih Baik