Meta mengatakan bahwa mereka mungkin akan menghentikan pengembangan sistem AI yang dianggap terlalu berisiko.
Courtesy of TechCrunch

Meta mengatakan bahwa mereka mungkin akan menghentikan pengembangan sistem AI yang dianggap terlalu berisiko.

TechCrunch
DariĀ TechCrunch
04 Feb 2025, 04.52 WIB
228 dibaca
Share
CEO Meta, Mark Zuckerberg, berkomitmen untuk membuat kecerdasan buatan umum (AGI) tersedia secara terbuka di masa depan. Namun, dalam dokumen kebijakan baru yang disebut Frontier AI Framework, Meta mengidentifikasi dua jenis sistem AI yang dianggap terlalu berisiko untuk dirilis, yaitu sistem "risiko tinggi" dan "risiko kritis". Sistem risiko tinggi dapat membantu dalam serangan siber, tetapi tidak seandal sistem risiko kritis yang dapat menyebabkan hasil bencana yang tidak dapat diatasi. Contoh serangan yang disebutkan termasuk serangan terhadap lingkungan perusahaan yang dilindungi dan penyebaran senjata biologis berbahaya.
Meta menyatakan bahwa penilaian risiko sistem tidak didasarkan pada satu tes empiris, tetapi melalui masukan dari peneliti internal dan eksternal. Jika sistem dianggap berisiko tinggi, akses akan dibatasi dan tidak akan dirilis sampai risiko dapat dikurangi. Sementara itu, sistem yang dianggap berisiko kritis akan dihentikan pengembangannya hingga dapat dibuat lebih aman. Dengan Frontier AI Framework, Meta berusaha menyeimbangkan antara manfaat dan risiko dalam pengembangan AI, berbeda dengan pendekatan perusahaan lain yang mungkin kurang memperhatikan aspek keamanan.

Pertanyaan Terkait

Q
Apa yang dijanjikan oleh CEO Meta, Mark Zuckerberg, terkait kecerdasan buatan umum?
A
Mark Zuckerberg berjanji untuk membuat kecerdasan buatan umum tersedia secara terbuka di masa depan.
Q
Apa itu Kerangka AI Frontier yang diperkenalkan oleh Meta?
A
Kerangka AI Frontier adalah dokumen kebijakan yang mengidentifikasi jenis sistem AI yang dianggap terlalu berisiko untuk dirilis oleh Meta.
Q
Apa perbedaan antara sistem berisiko tinggi dan sistem berisiko kritis menurut Meta?
A
Sistem berisiko tinggi dapat memudahkan serangan, sedangkan sistem berisiko kritis dapat menyebabkan hasil bencana yang tidak dapat diminimalkan.
Q
Mengapa Meta tidak menggunakan tes empiris untuk mengklasifikasikan risiko sistem?
A
Meta tidak percaya bahwa ilmu evaluasi cukup kuat untuk memberikan metrik kuantitatif definitif dalam menentukan risiko sistem.
Q
Apa tujuan Meta dalam menerbitkan Kerangka AI Frontier ini?
A
Tujuan Meta adalah untuk mempertimbangkan manfaat dan risiko dalam pengembangan dan penerapan AI untuk menjaga manfaat teknologi sambil mengelola risiko yang sesuai.

Artikel Serupa

Meta Tantang OpenAI dengan Peluncuran Chatbot AI dan API LlamaTechCrunch
Teknologi
1 bulan lalu
120 dibaca

Meta Tantang OpenAI dengan Peluncuran Chatbot AI dan API Llama

Meta Berjuang Menarik Pengembang di Tengah Persaingan Ketat AITechCrunch
Teknologi
1 bulan lalu
33 dibaca

Meta Berjuang Menarik Pengembang di Tengah Persaingan Ketat AI

OpenAI akan membangun model AI terbuka di tengah persaingan dari Meta dan DeepSeek.SCMP
Teknologi
2 bulan lalu
45 dibaca

OpenAI akan membangun model AI terbuka di tengah persaingan dari Meta dan DeepSeek.

Menghadapi persaingan dari Meta dan DeepSeek dari China, OpenAI akan membangun model AI terbuka.SCMP
Teknologi
2 bulan lalu
38 dibaca

Menghadapi persaingan dari Meta dan DeepSeek dari China, OpenAI akan membangun model AI terbuka.

CTO Meta mengatakan bahwa dia sudah memprediksi seluruh hal tentang DeepSeek 6 bulan yang lalu.YahooFinance
Teknologi
4 bulan lalu
150 dibaca

CTO Meta mengatakan bahwa dia sudah memprediksi seluruh hal tentang DeepSeek 6 bulan yang lalu.

Zuckerberg Mengatakan DeepSeek 'Memperkuat Keyakinan Kami' Saat Meta Mengeluarkan Banyak Uang untuk AIYahooFinance
Teknologi
4 bulan lalu
145 dibaca

Zuckerberg Mengatakan DeepSeek 'Memperkuat Keyakinan Kami' Saat Meta Mengeluarkan Banyak Uang untuk AI