Courtesy of TheVerge
Anthropic Perketat Aturan AI Claude untuk Cegah Senjata Mematikan dan Serangan Siber
Menginformasikan pembaruan kebijakan keamanan yang diadopsi Anthropic untuk mencegah penyalahgunaan AI Claude dalam pembuatan senjata berbahaya dan serangan siber, serta mengatur ulang kebijakan terkait konten politik demi melindungi proses demokrasi.
16 Agt 2025, 00.05 WIB
36 dibaca
Share
Ikhtisar 15 Detik
- Anthropic memperketat kebijakan penggunaan Claude AI untuk mencegah penyalahgunaan dalam pengembangan senjata berbahaya.
- Perlindungan baru seperti 'AI Safety Level 3' dirancang untuk meningkatkan keamanan model AI.
- Kebijakan konten politik telah dilonggarkan, dengan fokus pada penghindaran penipuan dalam proses demokrasi.
Anthropic, perusahaan pengembang AI Claude, baru-baru ini memperbarui kebijakan penggunaannya untuk meningkatkan keamanan dan mencegah penyalahgunaan teknologi. Pembaruan ini muncul karena meningkatnya kekhawatiran terkait potensi bahaya AI apabila digunakan untuk tujuan yang berbahaya seperti pembuatan senjata.
Kebijakan baru ini secara eksplisit melarang penggunaannya dalam pembuatan senjata berdaya ledak tinggi serta senjata biologis, nuklir, kimia, dan radiologis. Ini adalah langkah perluasan dari larangan sebelumnya yang mencakup senjata dan bahan berbahaya secara umum.
Selain itu, Anthropic meluncurkan fitur AI Safety Level 3 yang membuat AI lebih sulit untuk dijailbreak dan mencegah asisten AI membantu pembuatan senjata berbahaya. Mereka juga mengenalkan pembatasan dalam kemampuan seperti mengambil alih komputer pengguna untuk mencegah serangan siber skala besar.
Dengan adanya risiko yang dihadapi dari alat agentic AI, Anthropic menambahkan aturan baru mengenai larangan penggunaan Claude untuk eksploitasi keamanan siber, pembuatan malware, serta serangan penolakan layanan (DDoS). Hal ini menunjukkan fokus mereka pada keamanan siber dan etika penggunaan AI.
Di sisi lain, perusahaan melonggarkan aturan terkait konten politik, hanya memblokir penggunaan yang menipu atau mengganggu proses demokrasi. Serta menegaskan bahwa aturan ketat untuk kasus penggunaan berisiko tinggi hanya berlaku untuk interaksi langsung dengan konsumen, bukan untuk penggunaan bisnis.
--------------------
Analisis Kami: Perubahan kebijakan Anthropic menunjukkan keseriusan mereka dalam menangani risiko AI di ranah keamanan nasional dan siber, yang sangat krusial mengingat potensi destruktif AI jika disalahgunakan. Namun, upaya tersebut harus diimbangi dengan transparansi dan kolaborasi lintas industri agar kebijakan ini efektif tanpa menghambat inovasi.
--------------------
Analisis Ahli:
Dr. A. R. Kurniawan: Kebijakan ketat Anthropic pada pembuatan senjata dan keamanan siber adalah langkah penting yang mencerminkan tren internasional dalam regulasi AI yang bertanggung jawab demi menjaga perdamaian dan keamanan global.
--------------------
What's Next: Kebijakan yang lebih ketat ini kemungkinan akan memicu standar keamanan serupa di perusahaan AI lain dan mendorong regulator mengawasi penggunaan AI lebih ketat untuk mencegah penyalahgunaan teknologi.
Referensi:
[1] https://theverge.com/news/760080/anthropic-updated-usage-policy-dangerous-ai-landscape
[1] https://theverge.com/news/760080/anthropic-updated-usage-policy-dangerous-ai-landscape