Courtesy of TechCrunch
California Dorong Regulasi AI dengan Transparansi dan Proteksi Risiko Masa Depan
20 Mar 2025, 01.27 WIB
114 dibaca
Share
Ikhtisar 15 Detik
- Laporan ini menekankan pentingnya regulasi yang proaktif terhadap risiko AI yang belum teramati.
- Transparansi dalam pengembangan AI dianggap krusial untuk meningkatkan keamanan dan akuntabilitas.
- Ada dukungan luas dari berbagai pemangku kepentingan untuk pendekatan yang lebih hati-hati dalam kebijakan AI.
Sebuah laporan baru dari kelompok kebijakan di California yang dipimpin oleh Fei-Fei Li, seorang ahli AI, menyarankan agar para pembuat undang-undang mempertimbangkan risiko AI yang belum terlihat saat merancang kebijakan regulasi AI. Laporan ini muncul setelah Gubernur Gavin Newsom membatalkan RUU keselamatan AI yang kontroversial, SB 1047, dan mengakui perlunya penilaian yang lebih mendalam tentang risiko AI. Laporan ini mendorong agar pengembang model AI seperti OpenAI harus lebih transparan dalam melaporkan pengujian keselamatan, praktik pengumpulan data, dan langkah-langkah keamanan mereka.
Laporan tersebut juga merekomendasikan agar ada standar yang lebih tinggi untuk evaluasi pihak ketiga dan perlindungan bagi karyawan perusahaan AI yang melaporkan masalah. Meskipun laporan ini tidak mengusulkan undang-undang tertentu, banyak ahli dari berbagai pandangan mendukungnya. Ini dianggap sebagai langkah positif untuk regulasi keselamatan AI di California dan sejalan dengan beberapa komponen dari RUU sebelumnya, seperti kewajiban bagi pengembang AI untuk melaporkan hasil pengujian keselamatan.
--------------------
Analisis Kami: Pendekatan 'percaya tapi verifikasi' dalam laporan ini adalah langkah maju yang penting untuk membangun kepercayaan publik tanpa menghambat inovasi teknologi. Namun, efektivitas kebijakan ini sangat tergantung pada implementasi ketat dan pengawasan independen yang konsisten agar tidak terjadi celah eksploitasi oleh perusahaan AI besar.
--------------------
Analisis Ahli:
Fei-Fei Li: Kebijakan harus proaktif dan tidak hanya fokus pada risiko yang sudah terjadi, melainkan juga mengantisipasi potensi bahaya AI yang sangat serius di masa depan.
Jennifer Chayes: Transparansi dan standar evaluasi pihak ketiga adalah kunci untuk mengatur AI yang semakin kompleks dan berpotensi berdampak luas.
Scott Wiener: Laporan ini menjadi landasan penting untuk melanjutkan diskusi regulasi AI di legislatif dan memperkuat perlindungan masyarakat.
--------------------
What's Next: Kebijakan regulasi AI di California akan berkembang lebih komprehensif dengan menekankan transparansi, pelaporan keselamatan, dan perlindungan pelapor, sekaligus membuka jalan untuk regulasi yang mengantisipasi risiko masa depan AI yang kompleks.
Referensi:
[1] https://techcrunch.com/2025/03/19/group-co-led-by-fei-fei-li-suggests-that-ai-safety-laws-should-anticipate-future-risks/
[1] https://techcrunch.com/2025/03/19/group-co-led-by-fei-fei-li-suggests-that-ai-safety-laws-should-anticipate-future-risks/