OpenAI Perbarui Kerangka Risiko AI Fokus pada Bahaya Besar dan Kemampuan Tersembunyi
Courtesy of Axios

OpenAI Perbarui Kerangka Risiko AI Fokus pada Bahaya Besar dan Kemampuan Tersembunyi

Menjelaskan perubahan yang dilakukan OpenAI pada kerangka kesiapan mereka untuk memastikan keamanan model AI baru.

16 Apr 2025, 01.59 WIB
135 dibaca
Share
Ikhtisar 15 Detik
  • OpenAI memperbarui kerangka kesiapan untuk lebih fokus pada risiko tinggi dan kritis.
  • Perubahan ini mencakup penambahan kategori penelitian baru yang berkaitan dengan kemampuan model untuk menyembunyikan dan mereplikasi diri.
  • Peneliti di OpenAI menekankan pentingnya pengamanan untuk mencegah risiko bencana yang mungkin ditimbulkan oleh model AI yang semakin canggih.
Amerika Serikat - OpenAI sedang memperbarui sistem evaluasi risiko mereka untuk model AI baru dengan menambahkan kategori baru yang mencakup model yang dapat mereplikasi diri atau menyembunyikan kemampuan mereka. Perubahan ini bertujuan untuk memastikan bahwa model AI aman dan menentukan pengamanan yang diperlukan selama pengembangan dan rilis publik.
Perusahaan tidak lagi mengevaluasi model berdasarkan kemampuan persuasif mereka dan akan fokus pada apakah risiko mencapai tingkat 'tinggi' atau 'kritis'. Selain itu, OpenAI menambahkan kategori penelitian baru untuk memantau apakah model dapat menyembunyikan kemampuan, menghindari pengamanan, atau berusaha mereplikasi diri atau mencegah penutupan.
Perubahan ini adalah yang pertama kali dilakukan sejak kerangka diperkenalkan pada Desember 2023. OpenAI menyatakan bahwa sistem AI yang akan datang akan memiliki kemampuan untuk menciptakan risiko signifikan dari kerusakan parah, sehingga diperlukan pengamanan yang dapat diandalkan untuk keselamatan dan keamanan.
--------------------
Analisis Kami: Perubahan kerangka kerja ini sangat tepat karena menyesuaikan fokus evaluasi risiko pada ancaman yang benar-benar kritis, mengurangi beban pada kategori risiko yang kurang relevan. Namun, pengawasan dan transparansi yang berkelanjutan tetap sangat penting agar teknologi AI tidak berkembang di luar kendali manusia.
--------------------
Analisis Ahli:
Sandhini Agarwal: Kerangka baru membantu mengarahkan perhatian kami pada risiko bencana, bukan sekadar risiko rendah hingga menengah, untuk menyiapkan pengamanan yang lebih efektif pada model AI berbahaya.
--------------------
What's Next: Ke depan, pengembangan model AI akan semakin diawasi ketat dengan standar pengamanan yang lebih canggih untuk mencegah potensi risiko serius, termasuk kemungkinan model AI yang bertindak agentik dan sulit dikendalikan.
Referensi:
[1] https://www.axios.com/2025/04/15/openai-risks-frameworks-changes

Pertanyaan Terkait

Q
Apa tujuan dari kerangka kesiapan yang digunakan oleh OpenAI?
A
Tujuan dari kerangka kesiapan adalah untuk mengevaluasi apakah model AI aman dan menentukan pengamanan yang diperlukan selama pengembangan dan rilis publik.
Q
Apa perubahan terbaru yang dilakukan OpenAI pada kerangka kesiapan?
A
Perubahan terbaru termasuk penghapusan evaluasi kemampuan persuasif dan fokus pada risiko tinggi atau kritis, serta penambahan kategori penelitian baru.
Q
Mengapa OpenAI menghapus evaluasi kemampuan persuasif dari kerangka mereka?
A
OpenAI menghapus evaluasi kemampuan persuasif karena model-model terbaru telah mencapai tingkat risiko 'sedang' dalam area tersebut.
Q
Apa risiko baru yang ditambahkan dalam kategori penelitian?
A
Risiko baru yang ditambahkan termasuk kemampuan model untuk menyembunyikan kemampuan, menghindari pengamanan, atau berusaha untuk mereplikasi diri.
Q
Siapa Sandhini Agarwal dan apa perannya di OpenAI?
A
Sandhini Agarwal adalah peneliti keselamatan di OpenAI yang menjelaskan bahwa perubahan dalam kerangka tersebut bertujuan untuk melindungi terhadap risiko yang paling parah.

Artikel Serupa

OpenAI Tingkatkan Transparansi dengan Publikasi Rutin Evaluasi Keamanan AITechCrunch
Teknologi
3 bulan lalu
110 dibaca

OpenAI Tingkatkan Transparansi dengan Publikasi Rutin Evaluasi Keamanan AI

OpenAI Siap Rilis Model Bahasa Terbuka Baru dengan Lisensi Bebas Tahun IniTechCrunch
Teknologi
3 bulan lalu
213 dibaca

OpenAI Siap Rilis Model Bahasa Terbuka Baru dengan Lisensi Bebas Tahun Ini

OpenAI Siapkan Model Bahasa Terbuka Berfitur Reasoning dengan Lisensi BebasTechCrunch
Teknologi
3 bulan lalu
150 dibaca

OpenAI Siapkan Model Bahasa Terbuka Berfitur Reasoning dengan Lisensi Bebas

OpenAI Luncurkan Sistem Pemantauan untuk Cegah AI Berikan Arahan BahayaTechCrunch
Teknologi
4 bulan lalu
69 dibaca

OpenAI Luncurkan Sistem Pemantauan untuk Cegah AI Berikan Arahan Bahaya

OpenAI Sesuaikan Standar Keamanan AI Karena Persaingan MeningkatTechCrunch
Teknologi
4 bulan lalu
101 dibaca

OpenAI Sesuaikan Standar Keamanan AI Karena Persaingan Meningkat

Google DeepMind Tegaskan Pentingnya Keselamatan AI di Tengah Persaingan GlobalAxios
Teknologi
4 bulan lalu
141 dibaca

Google DeepMind Tegaskan Pentingnya Keselamatan AI di Tengah Persaingan Global