OpenAI Luncurkan Sistem Pemantauan untuk Cegah AI Berikan Arahan Bahaya
Courtesy of TechCrunch

OpenAI Luncurkan Sistem Pemantauan untuk Cegah AI Berikan Arahan Bahaya

Mengurangi risiko penggunaan model AI untuk mengembangkan ancaman biologis dan kimia oleh pengguna jahat.

17 Apr 2025, 04.12 WIB
69 dibaca
Share
Ikhtisar 15 Detik
  • OpenAI telah menerapkan sistem monitoring untuk mencegah penyalahgunaan model AI terkait ancaman biologis.
  • Model o3 dan o4-mini menunjukkan peningkatan kemampuan yang signifikan dibandingkan model sebelumnya.
  • Meskipun ada upaya untuk meningkatkan keselamatan, beberapa peneliti merasa OpenAI perlu lebih memprioritaskan aspek keselamatan.
Amerika Serikat - OpenAI telah mengembangkan sistem baru untuk memantau model AI terbaru mereka, o3 dan o4-mini, terkait ancaman biologis dan kimia. Sistem ini bertujuan untuk mencegah model memberikan saran yang dapat digunakan untuk melakukan serangan berbahaya. O3 dan o4-mini memiliki peningkatan kemampuan yang signifikan dibandingkan model sebelumnya, sehingga menimbulkan risiko baru di tangan aktor jahat.
Sistem pemantauan baru, yang disebut sebagai 'monitor penalaran berfokus pada keselamatan,' dirancang untuk mengidentifikasi prompt terkait risiko biologis dan kimia dan menginstruksikan model untuk menolak memberikan saran tentang topik tersebut. Selama pengujian, model menolak untuk merespons prompt berisiko 98,7% dari waktu. OpenAI menghabiskan sekitar 1.000 jam untuk menandai percakapan terkait risiko biologis yang tidak aman dari o3 dan o4-mini.
Meskipun demikian, beberapa peneliti mengkhawatirkan bahwa OpenAI tidak memprioritaskan keselamatan sebagaimana mestinya. Salah satu mitra red-teaming OpenAI, Metr, menyatakan bahwa mereka memiliki waktu yang relatif sedikit untuk menguji o3 pada tolok ukur perilaku menipu. OpenAI juga memutuskan untuk tidak merilis laporan keselamatan untuk model GPT-4.1 yang diluncurkan baru-baru ini.
--------------------
Analisis Kami: Meskipun langkah OpenAI dalam menciptakan sistem pemantauan keamanan adalah kemajuan penting, masih terasa kurang dalam hal transparansi durasi uji coba dan respons terhadap manipulasi setelah pemblokiran. Keselamatan dalam penggunaan AI harus menjadi prioritas utama, dan OpenAI perlu lebih terbuka serta sigap dalam mengantisipasi berbagai teknik pengelabuan yang bisa muncul.
--------------------
Analisis Ahli:
Dr. Emily Chen (Ahli Keamanan Siber dan Etika AI): Penggunaan monitor reasoning yang dikustomisasi sangat berarti untuk mencegah penyebaran pengetahuan berbahaya, namun perlu pengujian berkelanjutan dan kombinasi kontrol manusia agar risiko bisa diminimalisir secara efektif.
--------------------
What's Next: Ke depan, OpenAI kemungkinan akan memperkuat sistem pengawasan otomatis dan mengintegrasikan lebih banyak pemantauan manusia untuk menangkal eksploitasi AI dalam konteks ancaman biologis dan kimia yang semakin kompleks.
Referensi:
[1] https://techcrunch.com/2025/04/16/openais-latest-ai-models-have-a-new-safeguard-to-prevent-biorisks/

Pertanyaan Terkait

Q
Apa tujuan dari sistem monitoring yang diterapkan oleh OpenAI?
A
Tujuan dari sistem monitoring adalah untuk mencegah model memberikan saran terkait ancaman biologis dan kimia.
Q
Model apa yang menjadi fokus dalam laporan ini?
A
Model yang menjadi fokus dalam laporan ini adalah o3 dan o4-mini.
Q
Bagaimana OpenAI menguji efektivitas sistem monitoringnya?
A
OpenAI menguji efektivitas sistem monitoring dengan mensimulasikan logika pemblokiran dan melibatkan red teamers untuk mengidentifikasi percakapan berisiko.
Q
Apa yang dikhawatirkan oleh OpenAI terkait model o3 dan o4-mini?
A
OpenAI khawatir bahwa model o3 dan o4-mini dapat digunakan oleh pengguna jahat untuk mengembangkan ancaman biologis dan kimia.
Q
Siapa mitra red teaming yang disebutkan dalam artikel ini?
A
Mitra red teaming yang disebutkan dalam artikel ini adalah Metr.

Artikel Serupa

OpenAI Tingkatkan Transparansi dengan Publikasi Rutin Evaluasi Keamanan AITechCrunch
Teknologi
3 bulan lalu
111 dibaca

OpenAI Tingkatkan Transparansi dengan Publikasi Rutin Evaluasi Keamanan AI

OpenAI Siap Rilis Model Bahasa Terbuka Baru dengan Lisensi Bebas Tahun IniTechCrunch
Teknologi
3 bulan lalu
214 dibaca

OpenAI Siap Rilis Model Bahasa Terbuka Baru dengan Lisensi Bebas Tahun Ini

GPT-4.1 OpenAI: Model Baru yang Lebih Kuat Tapi Kurang Aman dan AndalanTechCrunch
Teknologi
3 bulan lalu
191 dibaca

GPT-4.1 OpenAI: Model Baru yang Lebih Kuat Tapi Kurang Aman dan Andalan

Evaluasi Terburu-buru Model AI OpenAI o3 Picu Kekhawatiran KeamananTechCrunch
Teknologi
4 bulan lalu
88 dibaca

Evaluasi Terburu-buru Model AI OpenAI o3 Picu Kekhawatiran Keamanan

OpenAI Rilis Model AI o3 dan o4-mini dengan Kemampuan Visual dan Browsing WebAxios
Teknologi
4 bulan lalu
90 dibaca

OpenAI Rilis Model AI o3 dan o4-mini dengan Kemampuan Visual dan Browsing Web

OpenAI Luncurkan Model AI Reasoning Terbaru o3 dan o4-mini dengan Kemampuan GambarTechCrunch
Teknologi
4 bulan lalu
114 dibaca

OpenAI Luncurkan Model AI Reasoning Terbaru o3 dan o4-mini dengan Kemampuan Gambar