Courtesy of YahooFinance
Meta Tingkatkan Penggunaan AI untuk Penilaian Risiko dan Moderasi Konten
Menginformasikan penggunaan AI di Meta dalam penilaian risiko dan moderasi konten serta dampaknya bagi keamanan pengguna dan efektivitas kebijakan.
02 Jun 2025, 05.07 WIB
110 dibaca
Share
Ikhtisar 15 Detik
- Meta berencana untuk mengotomatiskan sebagian besar penilaian risiko menggunakan AI.
- Perubahan dalam pendekatan penegakan aturan dapat menghasilkan lebih banyak konten yang melanggar di platform.
- Keterlibatan manusia masih diperlukan meskipun ada peningkatan penggunaan AI dalam penilaian risiko.
tidak disebutkan, Amerika Serikat - Meta, perusahaan induk Facebook dan Instagram, sedang memperluas penggunaan teknologi kecerdasan buatan (AI) untuk menjalankan berbagai fungsi internal seperti penargetan iklan dan analisis risiko. Mereka kini berencana menggunakan AI untuk mengotomatisasi hingga 90% proses penilaian risiko pada platformnya. Ini termasuk evaluasi dampak fitur baru terhadap privasi dan keamanan pengguna.
Sebelumnya, tim manusia yang dikenal sebagai peninjau privasi dan integritas lah yang menangani penilaian risiko ini. Tapi sekarang dokumen internal Meta yang diperoleh NPR menunjukkan bahwa sebagian besar tugas ini diambil alih oleh mesin. Meski teknologi AI ini memiliki potensi, perubahan ini juga menimbulkan kekhawatiran tentang keandalan dan kemampuan AI dalam mengelola masalah kompleks terkait pelanggaran dan bahaya.
Meta juga mengubah pendekatan dalam mengelola pelanggaran kebijakan yang dianggap kurang serius. Mereka mengurangi pengambilan keputusan otomatis dan hanya melakukan tindakan jika sistem yakin dengan pelanggaran tersebut. Pendekatan ini menurunkan jumlah kesalahan dalam penegakan aturan hingga 50%, namun menyebabkan lebih banyak konten bermasalah seperti bullying lolos ke platform mereka.
Terlihat dari data, deteksi bullying dan pelecehan di Facebook menurun 12% pada kuartal pertama, yang meskipun terlihat minor di grafik, sebenarnya berarti jutaan konten berbahaya tidak segera dihapus. Meta tetap berharap AI dapat membantu mengelola konten ini secara lebih efektif ke depannya dengan pengawasan manusia untuk keputusan yang berisiko rendah.
Mark Zuckerberg juga mengungkapkan bahwa dalam satu hingga satu setengah tahun kedepan, sebagian besar kode pengembangan internal Meta akan dibuat oleh AI. Meskipun penggunaan AI untuk penulisan kode lebih logis dan berdasarkan data, penggunaan AI untuk menegakkan aturan dan kebijakan dihadapkan pada risiko besar jika terjadi kesalahan. Meta tetap berusaha menemukan keseimbangan terbaik antara otomasi dan pengawasan manusia.
Pertanyaan Terkait
Q
Apa yang sedang dilakukan Meta dalam penggunaan AI?A
Meta semakin mengandalkan sistem berbasis AI untuk berbagai aspek pengembangan dan manajemen internal, termasuk penilaian risiko.Q
Bagaimana Meta merubah proses penilaian risiko?A
Meta akan mengotomatiskan hingga 90% dari semua penilaian risiko di Facebook dan Instagram, mengurangi keterlibatan manusia.Q
Apa dampak dari pengurangan kesalahan penegakan aturan di Meta?A
Pengurangan kesalahan penegakan aturan dapat berarti lebih banyak konten yang melanggar ditampilkan kepada pengguna, meskipun kesalahan penegakan berkurang.Q
Apa saja aplikasi AI yang direncanakan oleh Meta ke depan?A
Meta merencanakan agar sebagian besar kode yang berkembang ditulis oleh AI dalam 12 hingga 18 bulan ke depan.Q
Mengapa penggunaan AI dalam penilaian risiko dianggap berisiko?A
Penggunaan AI dalam penilaian risiko berisiko karena dapat mengakibatkan kesalahan yang mempengaruhi pengalaman pengguna secara signifikan.