Courtesy of Wired
Ikhtisar 15 Detik
- Kerentanan dalam model AI perlu diungkapkan secara transparan untuk meningkatkan keamanan.
- Kolaborasi antara peneliti dan perusahaan AI sangat penting untuk mengatasi masalah keamanan.
- Sistem pelaporan kerentanan yang lebih baik diperlukan untuk melindungi peneliti dari risiko hukum.
Pada akhir tahun 2023, sekelompok peneliti menemukan masalah serius pada model kecerdasan buatan OpenAI, GPT-3.5. Ketika diminta untuk mengulang kata tertentu seribu kali, model ini mulai mengeluarkan teks yang tidak koheren dan bahkan informasi pribadi seperti nama, nomor telepon, dan alamat email. Peneliti tersebut bekerja sama dengan OpenAI untuk memperbaiki masalah ini sebelum mengungkapkannya ke publik. Mereka juga mencatat bahwa banyak model AI lainnya memiliki kerentanan yang dilaporkan dengan cara yang tidak tepat, sehingga mereka mengusulkan sistem baru yang memungkinkan peneliti luar untuk menguji model AI dan melaporkan masalah secara terbuka.
Usulan ini bertujuan untuk meningkatkan keamanan model AI, yang sangat penting karena teknologi ini digunakan secara luas. Peneliti menyarankan agar perusahaan besar mengadopsi laporan standar untuk kerentanan AI, menyediakan infrastruktur bagi peneliti luar, dan mengembangkan sistem untuk berbagi informasi tentang kerentanan antara penyedia yang berbeda. Dengan cara ini, diharapkan masalah dalam model AI dapat ditemukan dan diperbaiki lebih cepat, sehingga pengguna tidak akan mengalami produk yang lebih buruk atau bahkan berbahaya.
Pertanyaan Terkait
Q
Apa yang ditemukan oleh tim peneliti terkait model GPT-3.5?A
Tim peneliti menemukan bahwa model GPT-3.5 dapat mengeluarkan teks tidak koheren dan informasi pribadi saat diminta untuk mengulang kata tertentu seribu kali.Q
Mengapa penting untuk menguji keamanan model AI?A
Penting untuk menguji keamanan model AI karena mereka dapat memiliki bias berbahaya dan dapat menghasilkan respons yang tidak menyenangkan atau berbahaya.Q
Apa yang diusulkan oleh lebih dari 30 peneliti AI?A
Mereka mengusulkan skema baru yang memungkinkan peneliti luar untuk menguji model dan mengungkapkan kerentanan secara publik.Q
Siapa yang terlibat dalam inisiatif untuk meningkatkan pengungkapan kerentanan AI?A
Inisiatif ini melibatkan akademisi dari MIT, Stanford, Princeton, dan organisasi penelitian AI independen, serta perusahaan besar seperti Microsoft dan Mozilla.Q
Apa dampak dari kerentanan yang tidak dilaporkan pada pengguna?A
Kerentanan yang tidak dilaporkan dapat menyebabkan pengguna mengalami produk yang lebih buruk atau bahkan berbahaya.