Meta mengatakan bahwa mereka mungkin akan menghentikan pengembangan sistem AI yang dianggap terlalu berisiko.
Courtesy of TechCrunch

Rangkuman Berita: Meta mengatakan bahwa mereka mungkin akan menghentikan pengembangan sistem AI yang dianggap terlalu berisiko.

TechCrunch
DariĀ TechCrunch
04 Februari 2025 pukul 04.52 WIB
172 dibaca
Share
CEO Meta, Mark Zuckerberg, berkomitmen untuk membuat kecerdasan buatan umum (AGI) tersedia secara terbuka di masa depan. Namun, dalam dokumen kebijakan baru yang disebut Frontier AI Framework, Meta mengidentifikasi dua jenis sistem AI yang dianggap terlalu berisiko untuk dirilis, yaitu sistem "risiko tinggi" dan "risiko kritis". Sistem risiko tinggi dapat membantu dalam serangan siber, tetapi tidak seandal sistem risiko kritis yang dapat menyebabkan hasil bencana yang tidak dapat diatasi. Contoh serangan yang disebutkan termasuk serangan terhadap lingkungan perusahaan yang dilindungi dan penyebaran senjata biologis berbahaya.
Meta menyatakan bahwa penilaian risiko sistem tidak didasarkan pada satu tes empiris, tetapi melalui masukan dari peneliti internal dan eksternal. Jika sistem dianggap berisiko tinggi, akses akan dibatasi dan tidak akan dirilis sampai risiko dapat dikurangi. Sementara itu, sistem yang dianggap berisiko kritis akan dihentikan pengembangannya hingga dapat dibuat lebih aman. Dengan Frontier AI Framework, Meta berusaha menyeimbangkan antara manfaat dan risiko dalam pengembangan AI, berbeda dengan pendekatan perusahaan lain yang mungkin kurang memperhatikan aspek keamanan.

Pertanyaan Terkait

Q
Apa yang dijanjikan oleh CEO Meta, Mark Zuckerberg, terkait kecerdasan buatan umum?
A
Mark Zuckerberg berjanji untuk membuat kecerdasan buatan umum tersedia secara terbuka di masa depan.
Q
Apa itu Kerangka AI Frontier yang diperkenalkan oleh Meta?
A
Kerangka AI Frontier adalah dokumen kebijakan yang mengidentifikasi jenis sistem AI yang dianggap terlalu berisiko untuk dirilis oleh Meta.
Q
Apa perbedaan antara sistem berisiko tinggi dan sistem berisiko kritis menurut Meta?
A
Sistem berisiko tinggi dapat memudahkan serangan, sedangkan sistem berisiko kritis dapat menyebabkan hasil bencana yang tidak dapat diminimalkan.
Q
Mengapa Meta tidak menggunakan tes empiris untuk mengklasifikasikan risiko sistem?
A
Meta tidak percaya bahwa ilmu evaluasi cukup kuat untuk memberikan metrik kuantitatif definitif dalam menentukan risiko sistem.
Q
Apa tujuan Meta dalam menerbitkan Kerangka AI Frontier ini?
A
Tujuan Meta adalah untuk mempertimbangkan manfaat dan risiko dalam pengembangan dan penerapan AI untuk menjaga manfaat teknologi sambil mengelola risiko yang sesuai.

Rangkuman Berita Serupa

OpenAI akan membangun model AI terbuka di tengah persaingan dari Meta dan DeepSeek.SCMP
Teknologi
1 bulan lalu
31 dibaca

OpenAI akan membangun model AI terbuka di tengah persaingan dari Meta dan DeepSeek.

Menghadapi persaingan dari Meta dan DeepSeek dari China, OpenAI akan membangun model AI terbuka.SCMP
Teknologi
1 bulan lalu
21 dibaca

Menghadapi persaingan dari Meta dan DeepSeek dari China, OpenAI akan membangun model AI terbuka.

Kepala kebijakan lama OpenAI mengkritik perusahaan karena 'menulis ulang' sejarah keselamatan AI-nya.TechCrunch
Teknologi
1 bulan lalu
117 dibaca

Kepala kebijakan lama OpenAI mengkritik perusahaan karena 'menulis ulang' sejarah keselamatan AI-nya.

Meta mengumumkan LlamaCon, konferensi pengembang AI generatif pertamanya.TechCrunch
Teknologi
2 bulan lalu
152 dibaca

Meta mengumumkan LlamaCon, konferensi pengembang AI generatif pertamanya.

CTO Meta mengatakan bahwa dia sudah memprediksi seluruh hal tentang DeepSeek 6 bulan yang lalu.YahooFinance
Teknologi
2 bulan lalu
98 dibaca

CTO Meta mengatakan bahwa dia sudah memprediksi seluruh hal tentang DeepSeek 6 bulan yang lalu.

Zuckerberg Mengatakan DeepSeek 'Memperkuat Keyakinan Kami' Saat Meta Mengeluarkan Banyak Uang untuk AIYahooFinance
Teknologi
3 bulan lalu
88 dibaca

Zuckerberg Mengatakan DeepSeek 'Memperkuat Keyakinan Kami' Saat Meta Mengeluarkan Banyak Uang untuk AI