Mengapa AI Masih Sering Salah dan Bagaimana Kita Bisa Membuatnya Lebih Aman
Courtesy of InterestingEngineering

Mengapa AI Masih Sering Salah dan Bagaimana Kita Bisa Membuatnya Lebih Aman

Menjelaskan mengapa model AI besar seperti LLM sering membuat kesalahan, mengapa sulit memperbaikinya, dan upaya yang sedang dilakukan agar AI lebih aman, akurat, dan sesuai dengan nilai manusia.

07 Mei 2025, 01.46 WIB
100 dibaca
Share
Ikhtisar 15 Detik
  • Model bahasa besar adalah alat yang kuat tetapi mereka tidak memahami konteks atau makna.
  • Pengawasan manusia sangat penting untuk memastikan akurasi dan keandalan informasi yang dihasilkan oleh AI.
  • Kesalahan yang dibuat oleh AI dapat memiliki konsekuensi serius, sehingga verifikasi manusia diperlukan dalam aplikasi kritis.
global - Model bahasa besar seperti ChatGPT sebenarnya hanyalah penebak pola dari kata-kata yang dilatih dari banyak teks, bukan sistem yang benar-benar mengerti atau berpikir. Karena itu, AI ini dapat melakukan kesalahan atau mengarang fakta tanpa sadar. Misalnya, saat diminta menjelaskan suatu fakta, model hanya memberikan kata yang sering muncul bersama pertanyaan itu, bukan informasi yang akurat.
Salah satu masalah utama adalah halusinasi, yaitu ketika AI memberikan informasi palsu dengan sangat percaya diri. Ini bukan kebohongan sengaja, tapi AI tidak bisa membedakan mana yang benar dan salah. Selain itu, bias mudah muncul karena AI belajar dari data yang mengandung stereotip atau sudut pandang tertentu, sehingga outputnya bisa tidak adil atau miring.
Model-model ini juga punya masalah bernama model drift, yakni ketidakakuratan akibat dunia yang terus berubah dan model tidak diperbarui secara rutin. Melatih ulang AI besar sangat mahal dan memerlukan banyak sumber daya, sehingga banyak model yang tetap menggunakan data lama dan jadi kurang relevan dengan kondisi terbaru.
Meskipun begitu, para peneliti dan perusahaan terus berusaha membuat AI lebih aman dan sesuai nilai manusia lewat teknik seperti Reinforcement Learning from Human Feedback (RLHF), Superalignment, dan Constitutional AI. Ada juga regulasi seperti Undang-Undang AI Uni Eropa yang mengatur keamanan, transparansi, dan tanggung jawab penggunaan AI berdasarkan risiko.
Namun, manusia tetap harus mengawasi dan memverifikasi hasil kerja AI. Walau AI kuat dan membantu banyak tugas, tanggung jawab dan keputusan akhir tetap ada pada manusia, terutama di bidang yang penting seperti hukum, kesehatan, dan pendidikan agar tidak terjadi kesalahan berbahaya.
Referensi:
[1] https://interestingengineering.com/culture/ai-large-language-model-chatgpt

Analisis Ahli

Stuart Russell
"AI harus dikembangkan dengan prinsip keselamatan dan kontrol manusia agar tidak keluar kendali di masa depan."
Yoshua Bengio
"Penekanan pada interpretabilitas dan pembelajaran yang sesuai nilai manusia sangat penting untuk mengurangi bias dan halusinasi dalam AI."
Dario Amodei
"Pendekatan superalignment dan teknik baru seperti Constitutional AI dapat membuat AI lebih dapat diawasi dan diatur tanpa terus-menerus bergantung pada manusia."

Analisis Kami

"Sebagai pakar, saya melihat LLM saat ini ibarat alat canggih tapi tanpa kesadaran — sangat bermanfaat tapi berbahaya jika digunakan tanpa pengawasan ketat. Di masa depan, kemajuan dalam transparansi dan teknik alignment kemungkinan besar akan mengurangi risiko, tapi manusia tetap menjadi penentu akhir dalam keputusan penting yang melibatkan AI."

Prediksi Kami

Pengembangan AI akan terus fokus pada alignment dengan nilai manusia dan regulasi global, namun solusi sempurna masih memerlukan waktu serta sumber daya besar sebelum AI benar-benar aman, dapat dipercaya, dan bebas dari kesalahan serius.