Courtesy of Wired
DeepSeek Model AI Murah Rentan Terhadap Serangan Jailbreak 100 Persen
01 Feb 2025, 01.30 WIB
110 dibaca
Share
Sejak OpenAI meluncurkan ChatGPT pada akhir 2022, banyak hacker dan peneliti keamanan mencoba menemukan celah dalam model bahasa besar (LLM) untuk mengelak dari pengamanannya dan memicu keluarnya konten berbahaya. OpenAI dan pengembang AI lainnya telah memperbaiki sistem pertahanan mereka, tetapi platform AI asal China, DeepSeek, tampaknya masih jauh tertinggal dalam hal keamanan. Penelitian terbaru menunjukkan bahwa model DeepSeek tidak mampu mendeteksi atau memblokir serangan yang dirancang untuk menghasilkan konten beracun, dengan tingkat keberhasilan serangan mencapai 100 persen. Hal ini menunjukkan bahwa meskipun DeepSeek lebih murah, investasi dalam keamanan dan perlindungan tampaknya kurang diperhatikan.
Baca juga: Model AI DeepSeek R1-0528 Punya Kemampuan Hebat Tapi Sensor Topik Sensitif Cina Makin Ketat
Peneliti juga menemukan bahwa DeepSeek rentan terhadap berbagai teknik jailbreak, yang memungkinkan pengguna untuk menghindari sistem keamanan yang ada. Meskipun beberapa model lain juga menunjukkan kelemahan, DeepSeek dianggap memiliki masalah yang lebih serius. Peneliti menekankan pentingnya terus-menerus menguji dan memperbaiki keamanan AI, karena setiap model dapat dieksploitasi jika tidak diawasi dengan baik. Dengan meningkatnya penggunaan AI dalam sistem penting, risiko yang terkait dengan celah keamanan ini menjadi semakin besar.
--------------------
Analisis Kami: Kurangnya perhatian DeepSeek terhadap keamanan mencerminkan dilema antara biaya produksi dan tanggung jawab etis dalam pengembangan AI. Tanpa perlindungan yang memadai, model ini tidak hanya berbahaya tapi juga merugikan ekosistem AI global.
--------------------
Analisis Ahli:
DJ Sampath: Ada trade-off antara biaya dan investasi keamanan, dan kurangnya proteksi membahayakan aplikasi kompleks di masa depan.
Alex Polyakov: Jailbreak tidak bisa dihilangkan 100%; tanpa red-teaming terus menerus, model sudah dalam kondisi rentan.
--------------------
What's Next: DeepSeek dan platform AI lainnya yang abai pada keamanan berisiko menjadi alat bagi aktivitas berbahaya, memperbesar risiko hukum dan reputasi, sehingga mendorong perlunya regulasi dan audit keamanan lebih ketat di masa depan.
Referensi:
[1] https://wired.com/story/deepseeks-ai-jailbreak-prompt-injection-attacks/
[1] https://wired.com/story/deepseeks-ai-jailbreak-prompt-injection-attacks/
Pertanyaan Terkait
Q
Apa yang ditemukan oleh peneliti dari Cisco dan University of Pennsylvania tentang model R1 dari DeepSeek?A
Peneliti menemukan bahwa model R1 dari DeepSeek tidak dapat mendeteksi atau memblokir serangan berbahaya, dengan tingkat keberhasilan serangan mencapai 100 persen.Q
Mengapa model DeepSeek dianggap memiliki kekurangan dalam hal keamanan?A
Model DeepSeek dianggap memiliki kekurangan dalam hal keamanan karena perlindungan yang diterapkan tidak sebanding dengan model AI lainnya, sehingga mudah untuk dilewati.Q
Apa itu serangan prompt injection dan mengapa itu menjadi masalah bagi model AI?A
Serangan prompt injection adalah serangan yang melibatkan AI mengambil data dari sumber luar dan dapat menyebabkan tindakan berbahaya, menjadi salah satu kelemahan terbesar dalam sistem AI saat ini.Q
Bagaimana jailbreak berfungsi dalam konteks model AI?A
Jailbreak memungkinkan pengguna untuk menghindari sistem keamanan yang ada dalam model AI, sering kali dengan menggunakan kalimat yang cerdik untuk mengabaikan filter konten.Q
Apa perbandingan antara model R1 DeepSeek dan model lain seperti Llama 3.1 dan o1 dari OpenAI?A
Model R1 DeepSeek menunjukkan performa yang buruk dibandingkan dengan model lain, meskipun ada model seperti Llama 3.1 yang juga menunjukkan kelemahan, tetapi model o1 dari OpenAI menunjukkan hasil terbaik.