Courtesy of NatureMagazine
GPT-5 OpenAI Kurangi Kesalahan Halusinasi, Namun Tantangan Masih Ada
Memberikan informasi tentang bagaimana OpenAI mengurangi frekuensi kesalahan berupa halusinasi dan kutipan palsu di GPT-5 serta tantangan yang masih dihadapi dalam menjamin akurasi dan kejujuran AI.
08 Sep 2025, 07.00 WIB
44 dibaca
Share
Ikhtisar 15 Detik
- GPT-5 menunjukkan kemajuan dalam mengurangi hallusinasi dan kutipan palsu.
- Model ini masih menghadapi tantangan dalam bidang teknis seperti hukum dan matematika.
- Akses internet meningkatkan akurasi GPT-5 dalam memberikan informasi yang relevan.
San Francisco, Amerika Serikat - Model kecerdasan buatan seperti GPT kerap menghasilkan informasi yang salah dan kutipan palsu. Ini disebut halusinasi, yang terjadi karena cara kerja AI yang memprediksi kata berdasarkan pola data sebelumnya tanpa menjamin kebenaran. OpenAI baru-baru ini meluncurkan GPT-5 yang dirancang untuk mengurangi kesalahan ini, berbeda dengan tren model AI lain yang justru lebih sering berhalusinasi.
Dalam pengujian dengan benchmark ScholarQA-CS, GPT-5 menunjukkan performa mendekati manusia saat diberi akses internet untuk memverifikasi jawaban. Model ini juga lebih jujur dengan lebih jarang mengklaim telah menyelesaikan tugas yang faktanya mustahil. Namun, di bidang seperti matematika dan hukum, GPT-5 masih menghadapi hambatan besar, terutama saat offline.
OpenAI mengakui bahwa halusinasi tidak bisa dihilangkan sepenuhnya karena model ini hanya melakukan generalisasi statistik. Namun tim mereka membuat kemajuan dengan membesarkan model, memperbanyak data pelatihan, dan melatih AI untuk berkata jujur bila tidak tahu jawaban. Meski begitu, kesalahan tetap muncul dan pengguna harus menyikapinya dengan hati-hati.
Selain GPT-5, ada kompetitor lain seperti Google Gemini 2.0 yang sedikit lebih unggul dalam beberapa pengujian terkait halusinasi dan keakuratan. Namun secara umum, model-model ini sudah jauh membaik dibanding versi sebelumnya. Kunci keberhasilan adalah kemampuan AI untuk browsing dan memastikan sumber data terpercaya saat menjawab pertanyaan terbuka.
Perkembangan GPT-5 menunjukkan AI semakin bisa diandalkan untuk tugas-tugas kompleks seperti review literatur ilmiah. Meski begitu, para ahli mengingatkan bahwa pengguna harus terus kritis karena AI masih bisa membuat kesalahan dan kadang tidak mengakui keterbatasannya. Masa depan AI akan fokus pada pengurangan kesalahan dan peningkatan kejujuran dalam interaksi manusia.
Referensi:
[1] https://nature.com/articles/d41586-025-02853-8
[1] https://nature.com/articles/d41586-025-02853-8
Analisis Kami
"Penurunan halusinasi di GPT-5 menunjukkan kemajuan signifikan dalam desain model AI, tetapi kegagalan dalam tugas sederhana menandakan masih adanya batasan fundamental pada pendekatan statistik. OpenAI harus menggabungkan metode yang memungkinkan AI untuk rutin mengaku tidak tahu agar kepercayaan pengguna tidak terganggu."
Analisis Ahli
Tianyang Xu
"Saat ini tingkat halusinasi GPT-5 berada pada level yang dapat diterima sebagian besar pengguna kecuali pada topik teknis yang kompleks."
Mark Steyvers
"Meski ada kemajuan, model masih terlalu jarang berkata 'saya tidak tahu', sebuah aspek penting untuk keandalan AI."
Mushtaq Bilal
"Menghilangkan halusinasi sepenuhnya mungkin mustahil, tetapi fokus harus pada mengurangi kesalahan dan meningkatkan transparansi."
Saachi Jain
"Penekanan OpenAI pada pelatihan dengan reward jujur dan kemampuan browsing menunjang pengurangan halusinasi pada GPT-5."
Akari Asai
"GPT-5 unggul saat online karena bisa cross-check, tapi kesalahan signifikan muncul saat offline."
Prediksi Kami
Di masa depan, model AI akan terus berkembang dengan kemampuan verifikasi sumber yang lebih baik dan kejujuran yang lebih tinggi, meskipun halusinasi tidak akan sepenuhnya hilang.
Pertanyaan Terkait
Q
Apa yang dikatakan OpenAI tentang GPT-5 terkait dengan kutipan palsu?A
OpenAI mengklaim bahwa GPT-5 telah mengurangi frekuensi kutipan palsu dan jenis hallusinasi lainnya.Q
Bagaimana GPT-5 dibandingkan dengan model sebelumnya dalam hal akurasi?A
GPT-5 mengungguli model sebelumnya dalam benchmark yang menguji kemampuan menghasilkan respons berbasis kutipan.Q
Apa penyebab utama terjadinya hallusinasi pada model bahasa?A
Hallusinasi disebabkan oleh cara kerja model bahasa yang bersifat statistik dan tidak mengakui ketidakpastian.Q
Apa fitur baru yang diperkenalkan OpenAI dalam pelatihan GPT-5?A
OpenAI berfokus pada pelatihan model untuk menjelajahi informasi terkini dan mengurangi hallusinasi dalam respons panjang.Q
Bagaimana kinerja GPT-5 jika tidak memiliki akses internet?A
Tanpa akses internet, GPT-5 mengalami peningkatan kesalahan dalam kutipan dan informasi yang dihasilkan.