Meta mengatakan bahwa mereka mungkin akan menghentikan pengembangan sistem AI yang dianggap terlalu berisiko.
Courtesy of TechCrunch

Meta mengatakan bahwa mereka mungkin akan menghentikan pengembangan sistem AI yang dianggap terlalu berisiko.

04 Feb 2025, 04.52 WIB
285 dibaca
Share
CEO Meta, Mark Zuckerberg, berkomitmen untuk membuat kecerdasan buatan umum (AGI) tersedia secara terbuka di masa depan. Namun, dalam dokumen kebijakan baru yang disebut Frontier AI Framework, Meta mengidentifikasi dua jenis sistem AI yang dianggap terlalu berisiko untuk dirilis, yaitu sistem "risiko tinggi" dan "risiko kritis". Sistem risiko tinggi dapat membantu dalam serangan siber, tetapi tidak seandal sistem risiko kritis yang dapat menyebabkan hasil bencana yang tidak dapat diatasi. Contoh serangan yang disebutkan termasuk serangan terhadap lingkungan perusahaan yang dilindungi dan penyebaran senjata biologis berbahaya.
Meta menyatakan bahwa penilaian risiko sistem tidak didasarkan pada satu tes empiris, tetapi melalui masukan dari peneliti internal dan eksternal. Jika sistem dianggap berisiko tinggi, akses akan dibatasi dan tidak akan dirilis sampai risiko dapat dikurangi. Sementara itu, sistem yang dianggap berisiko kritis akan dihentikan pengembangannya hingga dapat dibuat lebih aman. Dengan Frontier AI Framework, Meta berusaha menyeimbangkan antara manfaat dan risiko dalam pengembangan AI, berbeda dengan pendekatan perusahaan lain yang mungkin kurang memperhatikan aspek keamanan.
Sumber: https://techcrunch.com/2025/02/03/meta-says-it-may-stop-development-of-ai-systems-it-deems-too-risky/

Pertanyaan Terkait

Q
Apa yang dijanjikan oleh CEO Meta, Mark Zuckerberg, terkait kecerdasan buatan umum?
A
Mark Zuckerberg berjanji untuk membuat kecerdasan buatan umum tersedia secara terbuka di masa depan.
Q
Apa itu Kerangka AI Frontier yang diperkenalkan oleh Meta?
A
Kerangka AI Frontier adalah dokumen kebijakan yang mengidentifikasi jenis sistem AI yang dianggap terlalu berisiko untuk dirilis oleh Meta.
Q
Apa perbedaan antara sistem berisiko tinggi dan sistem berisiko kritis menurut Meta?
A
Sistem berisiko tinggi dapat memudahkan serangan, sedangkan sistem berisiko kritis dapat menyebabkan hasil bencana yang tidak dapat diminimalkan.
Q
Mengapa Meta tidak menggunakan tes empiris untuk mengklasifikasikan risiko sistem?
A
Meta tidak percaya bahwa ilmu evaluasi cukup kuat untuk memberikan metrik kuantitatif definitif dalam menentukan risiko sistem.
Q
Apa tujuan Meta dalam menerbitkan Kerangka AI Frontier ini?
A
Tujuan Meta adalah untuk mempertimbangkan manfaat dan risiko dalam pengembangan dan penerapan AI untuk menjaga manfaat teknologi sambil mengelola risiko yang sesuai.

Artikel Serupa

Meta Bentuk MSL untuk Percepat Teknologi AI dan Produk PintarYahooFinance
Teknologi
1 bulan lalu
73 dibaca

Meta Bentuk MSL untuk Percepat Teknologi AI dan Produk Pintar

Persaingan Perekrutan Talenta AI: Meta Tawar Paket Raksasa, OpenAI Unggul InovasiTechCrunch
Teknologi
1 bulan lalu
79 dibaca

Persaingan Perekrutan Talenta AI: Meta Tawar Paket Raksasa, OpenAI Unggul Inovasi

Meta Akuisisi Scale AI Senilai 14,3 Miliar untuk Bangun AI Super PintarTheVerge
Teknologi
1 bulan lalu
168 dibaca

Meta Akuisisi Scale AI Senilai 14,3 Miliar untuk Bangun AI Super Pintar

Mark Zuckerberg Ambil Alih Proyek AI Superintelligent untuk Kalahkan OpenAIInterestingEngineering
Teknologi
1 bulan lalu
186 dibaca

Mark Zuckerberg Ambil Alih Proyek AI Superintelligent untuk Kalahkan OpenAI

Meta Tingkatkan Penggunaan AI untuk Penilaian Risiko dan Moderasi KontenYahooFinance
Teknologi
2 bulan lalu
160 dibaca

Meta Tingkatkan Penggunaan AI untuk Penilaian Risiko dan Moderasi Konten

Meta Tantang OpenAI dengan Peluncuran Chatbot AI dan API LlamaTechCrunch
Teknologi
3 bulan lalu
140 dibaca

Meta Tantang OpenAI dengan Peluncuran Chatbot AI dan API Llama

OpenAI akan membangun model AI terbuka di tengah persaingan dari Meta dan DeepSeek.SCMP
Teknologi
4 bulan lalu
54 dibaca

OpenAI akan membangun model AI terbuka di tengah persaingan dari Meta dan DeepSeek.