Bahaya Hallusinasi Paket: Ancaman Serangan Keamanan dari Kode AI Palsu
Courtesy of Wired

Bahaya Hallusinasi Paket: Ancaman Serangan Keamanan dari Kode AI Palsu

Mengungkap fenomena 'package hallucination' dalam kode yang dihasilkan oleh model bahasa besar dan efek berbahayanya pada rantai pasokan perangkat lunak, serta perbedaan tingkat hallusinasi antar model dan bahasa pemrograman.

01 Mei 2025, 02.08 WIB
27 dibaca
Share
Ikhtisar 15 Detik
  • Model bahasa besar dapat menghasilkan dependensi yang tidak ada, yang disebut 'package hallucination'.
  • Dependensi yang tidak ada dapat meningkatkan risiko serangan kebingungan paket, yang dapat membahayakan keamanan perangkat lunak.
  • Ada perbedaan signifikan dalam tingkat hallucination antara model open source dan komersial, serta antara bahasa pemrograman Python dan JavaScript.
Texas, United States - Penelitian terbaru menemukan bahwa model bahasa besar (LLM) yang digunakan untuk membuat kode komputer sering memasukkan nama paket yang tidak benar atau tidak ada, yang disebut 'hallusinasi paket'. Hal ini membahayakan rantai pasokan perangkat lunak, karena bisa dimanfaatkan oleh penyerang untuk menyisipkan kode berbahaya dengan nama paket palsu.
Studi ini melibatkan 16 model bahasa dan menghasilkan lebih dari setengah juta contoh kode. Dari jutaan referensi paket dalam kode tersebut, hampir 20% menunjuk ke paket yang sebenarnya tidak ada. Model open source seperti CodeLlama lebih sering membuat kesalahan ini dibanding model komersial seperti ChatGPT.
Hallusinasi ini tidak terjadi secara acak. Sebagian besar paket palsu muncul berulang kali, yang artinya penyerang bisa tahu paket palsu mana yang sering digunakan dan membangun malware dengan nama tersebut untuk menipu banyak developer yang mengikuti saran LLM tanpa verifikasi.
Tingkat hallusinasi juga dipengaruhi oleh bahasa pemrograman. JavaScript dengan ribuan paket yang lebih banyak dan namespace kompleks menghasilkan lebih banyak kesalahan dibanding Python. Selain itu, ukuran model, data pelatihan, dan metode penyempurnaan juga berperan dalam tingkat kesalahan ini.
Para peneliti mengingatkan bahwa meskipun teknologi AI semakin maju, pengembang harus tetap berhati-hati dan memverifikasi setiap paket yang digunakan agar tidak terjebak serangan keamanan yang berbahaya yang memanfaatkan fenomena hallusinasi paket ini.--------------------
Analisis Ahli:
Referensi:
[1] https://wired.com/story/ai-code-hallucinations-increase-the-risk-of-package-confusion-attacks/

Pertanyaan Terkait

Q
Apa yang dimaksud dengan 'package hallucination'?
A
'Package hallucination' adalah fenomena di mana model bahasa besar menghasilkan referensi paket yang tidak ada dalam output mereka.
Q
Mengapa dependensi yang tidak ada menjadi ancaman bagi rantai pasokan perangkat lunak?
A
Dependensi yang tidak ada dapat menyebabkan perangkat lunak mengakses komponen yang salah, yang dapat mengakibatkan eksekusi kode jahat.
Q
Apa perbedaan antara model bahasa besar open source dan komersial dalam konteks hallucination?
A
Model bahasa besar open source memiliki tingkat hallucination yang lebih tinggi dibandingkan model komersial, kemungkinan karena ukuran parameter yang lebih kecil.
Q
Bagaimana serangan kebingungan paket dapat dieksploitasi oleh penyerang?
A
Penyerang dapat menerbitkan paket jahat dengan nama yang sama dengan paket yang sah, menunggu pengguna untuk menginstalnya tanpa verifikasi.
Q
Apa yang ditemukan oleh penelitian terkait frekuensi pengulangan package hallucination?
A
Penelitian menemukan bahwa 58 persen dari package hallucination diulang lebih dari sekali dalam 10 iterasi, menunjukkan bahwa hal ini bukanlah kesalahan acak.

Artikel Serupa

Meminta Jawaban Singkat pada AI Justru Bisa Membuat Halusinasi MeningkatTechCrunch
Teknologi
3 bulan lalu
96 dibaca

Meminta Jawaban Singkat pada AI Justru Bisa Membuat Halusinasi Meningkat

Mengapa AI Bisa Salah dan Bagaimana Kita Membuatnya Lebih Aman dan TepatInterestingEngineering
Teknologi
3 bulan lalu
76 dibaca

Mengapa AI Bisa Salah dan Bagaimana Kita Membuatnya Lebih Aman dan Tepat

Model AI Terbaru OpenAI Mengalami Peningkatan Halusinasi, Penelitian Lebih Lanjut DiperlukanTechCrunch
Teknologi
3 bulan lalu
149 dibaca

Model AI Terbaru OpenAI Mengalami Peningkatan Halusinasi, Penelitian Lebih Lanjut Diperlukan

Model AI yang dilatih pada kode yang tidak aman menjadi beracun, temuan studi.TechCrunch
Teknologi
5 bulan lalu
135 dibaca

Model AI yang dilatih pada kode yang tidak aman menjadi beracun, temuan studi.

Pengaman Keamanan DeepSeek Gagal dalam Setiap Uji Coba yang Dilakukan Peneliti terhadap Chatbot AI-nyaWired
Teknologi
6 bulan lalu
102 dibaca

Pengaman Keamanan DeepSeek Gagal dalam Setiap Uji Coba yang Dilakukan Peneliti terhadap Chatbot AI-nya

Model AI murah dan terbuka dari China, DeepSeek, menggembirakan para ilmuwan.NatureMagazine
Teknologi
6 bulan lalu
298 dibaca

Model AI murah dan terbuka dari China, DeepSeek, menggembirakan para ilmuwan.