DeepSeek Ungkap Risiko AI dan Upaya Uji Keamanan Model di China
Courtesy of SCMP

DeepSeek Ungkap Risiko AI dan Upaya Uji Keamanan Model di China

Artikel ini bertujuan untuk menginformasikan tentang evaluasi risiko yang dilakukan DeepSeek terhadap model AI mereka, termasuk kerentanan sistem open-source, serta upaya pengujian yang rinci seperti red-team testing untuk mencegah penyalahgunaan dan bahaya yang mungkin timbul dari model tersebut.

21 Sep 2025, 06.00 WIB
271 dibaca
Share
Ikhtisar 15 Detik
  • DeepSeek mengungkapkan risiko yang terkait dengan model AI yang mereka kembangkan.
  • Perusahaan AI di Cina, seperti DeepSeek, mulai lebih terbuka tentang risiko dibandingkan sebelumnya.
  • Pengujian 'red-team' digunakan untuk mengevaluasi potensi bahaya dari model-model AI.
Hangzhou, China - DeepSeek, sebuah start-up AI dari Hangzhou, China, secara terbuka membahas risiko yang ada dalam model kecerdasan buatannya untuk pertama kalinya. Hal ini diungkapkan dalam sebuah artikel yang diterbitkan di jurnal akademik Nature. Pengungkapan ini penting karena model AI open-source sangat berpotensi disalahgunakan oleh pihak jahat.
Perusahaan ini mengevaluasi modelnya menggunakan standarisasi industri sekaligus tes internal yang ketat, termasuk pengujian red-team yang meniru upaya peretas untuk memancing model menghasilkan ucapan berbahaya. Metode ini mengikuti framework yang diperkenalkan oleh perusahaan AI Amerika, Anthropic.
Berbeda dengan perusahaan AI Amerika yang sering mempublikasikan riset tentang risiko dan menerapkan kebijakan mitigasi risiko seperti Responsible Scaling Policies dan Preparedness Framework, perusahaan AI China cenderung kurang vokal. Meski demikian, DeepSeek telah melakukan evaluasi risiko serius sebelumnya termasuk risiko 'frontier'.
Fang Liang dari China’s AI Industry Alliance (AIIA) memberikan pujian terhadap laporan DeepSeek yang memuat rincian pengujian model secara lebih mendalam dan sistematis. Implementasi tes red-team ini merupakan langkah penting untuk mengidentifikasi potensi eksploitasi dan mengurangi dampak penyalahgunaan AI.
Dengan langkah ini, DeepSeek menunjukkan bahwa dinamika pengembangan AI di China mulai mendekati transparansi dan tanggung jawab yang selama ini digerakkan oleh perusahaan-perusahaan Amerika. Hal ini menandai perkembangan positif dalam menjaga keamanan teknologi AI yang semakin maju.
Referensi:
[1] https://www.scmp.com/tech/big-tech/article/3326214/deepseek-warns-jailbreak-risks-its-open-source-models?module=top_story&pgtype=section

Analisis Ahli

Fang Liang
"Pendekatan granular DeepSeek dalam red-team testing menunjukkan komitmen yang kuat untuk menghadapi tantangan risiko AI secara proaktif dan sangat penting untuk keamanan jangka panjang aplikasi AI."

Analisis Kami

"Mengungkapkan risiko dengan cara yang transparan adalah langkah penting untuk membangun kepercayaan dan keamanan dalam teknologi AI, terutama di Cina yang sebelumnya agak tertutup. DeepSeek telah menunjukkan kemajuan positif dalam pendekatan mitigasi risiko yang dapat menjadi contoh bagi perusahaan lain di kawasan tersebut."

Prediksi Kami

Di masa depan, semakin banyak perusahaan AI di China yang akan terbuka mengenai potensi risiko model kecerdasan buatannya dan mengadopsi kerangka pengujian serta kebijakan mitigasi yang lebih ketat, mengikuti jejak perusahaan-perusahaan Amerika.

Pertanyaan Terkait

Q
Apa yang diungkapkan oleh DeepSeek mengenai model AI mereka?
A
DeepSeek mengungkapkan risiko yang terkait dengan model AI mereka, termasuk kerentanan terhadap 'jailbroken' oleh aktor jahat.
Q
Bagaimana perusahaan AI di Amerika Serikat merespons risiko model mereka?
A
Perusahaan AI di Amerika Serikat sering mempublikasikan penelitian tentang risiko dan menerapkan kebijakan mitigasi risiko.
Q
Apa itu pengujian 'red-team' yang dilakukan oleh DeepSeek?
A
Pengujian 'red-team' adalah metode di mana penguji mencoba membuat model AI menghasilkan ucapan berbahaya.
Q
Siapa Fang Liang dan apa perannya dalam konteks artikel ini?
A
Fang Liang adalah anggota ahli dari AI Industry Alliance yang memberikan wawasan tentang evaluasi risiko yang dilakukan oleh DeepSeek.
Q
Apa yang membuat model AI open-source rentan terhadap 'jailbroken'?
A
Model AI open-source lebih rentan terhadap 'jailbroken' karena aksesibilitas dan kurangnya kontrol terhadap penggunaan.