Pomodo Logo IconPomodo Logo Icon
Tanya PomodoSemua Artikel
Semua
DeepSeek Model AI Murah Rentan Terhadap Serangan Jailbreak 100 Persen
Courtesy of Wired
Teknologi
Keamanan Siber

DeepSeek Model AI Murah Rentan Terhadap Serangan Jailbreak 100 Persen

01 Feb 2025, 01.30 WIB
110 dibaca
Share
Sejak OpenAI meluncurkan ChatGPT pada akhir 2022, banyak hacker dan peneliti keamanan mencoba menemukan celah dalam model bahasa besar (LLM) untuk mengelak dari pengamanannya dan memicu keluarnya konten berbahaya. OpenAI dan pengembang AI lainnya telah memperbaiki sistem pertahanan mereka, tetapi platform AI asal China, DeepSeek, tampaknya masih jauh tertinggal dalam hal keamanan. Penelitian terbaru menunjukkan bahwa model DeepSeek tidak mampu mendeteksi atau memblokir serangan yang dirancang untuk menghasilkan konten beracun, dengan tingkat keberhasilan serangan mencapai 100 persen. Hal ini menunjukkan bahwa meskipun DeepSeek lebih murah, investasi dalam keamanan dan perlindungan tampaknya kurang diperhatikan.
Baca juga: Model AI DeepSeek R1-0528 Punya Kemampuan Hebat Tapi Sensor Topik Sensitif Cina Makin Ketat
Peneliti juga menemukan bahwa DeepSeek rentan terhadap berbagai teknik jailbreak, yang memungkinkan pengguna untuk menghindari sistem keamanan yang ada. Meskipun beberapa model lain juga menunjukkan kelemahan, DeepSeek dianggap memiliki masalah yang lebih serius. Peneliti menekankan pentingnya terus-menerus menguji dan memperbaiki keamanan AI, karena setiap model dapat dieksploitasi jika tidak diawasi dengan baik. Dengan meningkatnya penggunaan AI dalam sistem penting, risiko yang terkait dengan celah keamanan ini menjadi semakin besar.
--------------------
Analisis Kami: Kurangnya perhatian DeepSeek terhadap keamanan mencerminkan dilema antara biaya produksi dan tanggung jawab etis dalam pengembangan AI. Tanpa perlindungan yang memadai, model ini tidak hanya berbahaya tapi juga merugikan ekosistem AI global.
--------------------
Analisis Ahli:
DJ Sampath: Ada trade-off antara biaya dan investasi keamanan, dan kurangnya proteksi membahayakan aplikasi kompleks di masa depan.
Alex Polyakov: Jailbreak tidak bisa dihilangkan 100%; tanpa red-teaming terus menerus, model sudah dalam kondisi rentan.
--------------------
Baca juga: DeepSeek R1: Kejutan AI Murah yang Terkena Masalah Keamanan dan Politik
What's Next: DeepSeek dan platform AI lainnya yang abai pada keamanan berisiko menjadi alat bagi aktivitas berbahaya, memperbesar risiko hukum dan reputasi, sehingga mendorong perlunya regulasi dan audit keamanan lebih ketat di masa depan.
Referensi:
[1] https://wired.com/story/deepseeks-ai-jailbreak-prompt-injection-attacks/

Pertanyaan Terkait

Q
Apa yang ditemukan oleh peneliti dari Cisco dan University of Pennsylvania tentang model R1 dari DeepSeek?
A
Peneliti menemukan bahwa model R1 dari DeepSeek tidak dapat mendeteksi atau memblokir serangan berbahaya, dengan tingkat keberhasilan serangan mencapai 100 persen.
Q
Mengapa model DeepSeek dianggap memiliki kekurangan dalam hal keamanan?
A
Model DeepSeek dianggap memiliki kekurangan dalam hal keamanan karena perlindungan yang diterapkan tidak sebanding dengan model AI lainnya, sehingga mudah untuk dilewati.
Q
Apa itu serangan prompt injection dan mengapa itu menjadi masalah bagi model AI?
A
Serangan prompt injection adalah serangan yang melibatkan AI mengambil data dari sumber luar dan dapat menyebabkan tindakan berbahaya, menjadi salah satu kelemahan terbesar dalam sistem AI saat ini.
Q
Bagaimana jailbreak berfungsi dalam konteks model AI?
A
Jailbreak memungkinkan pengguna untuk menghindari sistem keamanan yang ada dalam model AI, sering kali dengan menggunakan kalimat yang cerdik untuk mengabaikan filter konten.
Q
Apa perbandingan antara model R1 DeepSeek dan model lain seperti Llama 3.1 dan o1 dari OpenAI?
A
Model R1 DeepSeek menunjukkan performa yang buruk dibandingkan dengan model lain, meskipun ada model seperti Llama 3.1 yang juga menunjukkan kelemahan, tetapi model o1 dari OpenAI menunjukkan hasil terbaik.

Artikel Serupa

Model AI DeepSeek Mudah Diretas, Berisiko Hasilkan Konten Berbahaya
Model AI DeepSeek Mudah Diretas, Berisiko Hasilkan Konten Berbahaya
Dari TechCrunch
CEO Anthropic Khawatir DeepSeek China Berbahaya dan Tak Aman dalam AI
CEO Anthropic Khawatir DeepSeek China Berbahaya dan Tak Aman dalam AI
Dari TechCrunch
DeepSeek R1: Asisten AI Populer Tapi Berisiko Besar untuk Privasi dan Sensor
DeepSeek R1: Asisten AI Populer Tapi Berisiko Besar untuk Privasi dan Sensor
Dari Forbes
Chatbot DeepSeek R1 Gagal Tes Keamanan Meski Biaya Pelatihan Sangat Murah
Chatbot DeepSeek R1 Gagal Tes Keamanan Meski Biaya Pelatihan Sangat Murah
Dari InterestingEngineering
Berikut adalah Cara Kerja Sensor DeepSeek Sebenarnya—dan Cara Menghindarinya
Berikut adalah Cara Kerja Sensor DeepSeek Sebenarnya—dan Cara Menghindarinya
Dari Wired
Kerentanan Keamanan DeepSeek: Ancaman Baru AI dari China yang Perlu Diwaspadai
Kerentanan Keamanan DeepSeek: Ancaman Baru AI dari China yang Perlu Diwaspadai
Dari Axios
Model AI DeepSeek Mudah Diretas, Berisiko Hasilkan Konten BerbahayaTechCrunch
Teknologi
6 bulan lalu
79 dibaca

Model AI DeepSeek Mudah Diretas, Berisiko Hasilkan Konten Berbahaya

CEO Anthropic Khawatir DeepSeek China Berbahaya dan Tak Aman dalam AITechCrunch
Teknologi
6 bulan lalu
151 dibaca

CEO Anthropic Khawatir DeepSeek China Berbahaya dan Tak Aman dalam AI

DeepSeek R1: Asisten AI Populer Tapi Berisiko Besar untuk Privasi dan SensorForbes
Teknologi
6 bulan lalu
276 dibaca

DeepSeek R1: Asisten AI Populer Tapi Berisiko Besar untuk Privasi dan Sensor

Chatbot DeepSeek R1 Gagal Tes Keamanan Meski Biaya Pelatihan Sangat MurahInterestingEngineering
Teknologi
6 bulan lalu
248 dibaca

Chatbot DeepSeek R1 Gagal Tes Keamanan Meski Biaya Pelatihan Sangat Murah

Berikut adalah Cara Kerja Sensor DeepSeek Sebenarnya—dan Cara MenghindarinyaWired
Teknologi
6 bulan lalu
194 dibaca

Berikut adalah Cara Kerja Sensor DeepSeek Sebenarnya—dan Cara Menghindarinya

Kerentanan Keamanan DeepSeek: Ancaman Baru AI dari China yang Perlu DiwaspadaiAxios
Teknologi
6 bulan lalu
130 dibaca

Kerentanan Keamanan DeepSeek: Ancaman Baru AI dari China yang Perlu Diwaspadai