Pomodo Logo IconPomodo Logo Icon
Tanya PomodoSemua Artikel
Semua
Algoritma Mengawasi Sistem Kesejahteraan Selama Bertahun-Tahun. Sekarang Mereka Dapat Kritik Karena Bias.
Courtesy of Wired
Teknologi
Kecerdasan Buatan

Algoritma Mengawasi Sistem Kesejahteraan Selama Bertahun-Tahun. Sekarang Mereka Dapat Kritik Karena Bias.

16 Okt 2024, 16.37 WIB
103 dibaca
Share
Sejak tahun 2010-an, algoritma yang digunakan untuk mendeteksi penipuan dalam sistem bantuan sosial di Prancis telah dipermasalahkan oleh 15 kelompok, termasuk Amnesty International. Mereka berargumen bahwa algoritma ini melanggar aturan privasi Eropa dan hukum anti-diskriminasi di Prancis. Algoritma ini menganalisis data pribadi lebih dari 30 juta orang untuk memberi nilai antara 0 dan 1, berdasarkan kemungkinan mereka menerima pembayaran yang tidak seharusnya. Kelompok-kelompok tersebut meminta agar algoritma ini dibatalkan karena mereka percaya dapat menyebabkan surveilans yang besar dan menyerang hak privasi, terutama bagi orang-orang yang rentan.
Baca juga: Uni Eropa Perkenalkan Kode Sukarela untuk Mengatur Kecerdasan Buatan
Hasilnya, kelompok seperti La Quadrature du Net menunjukkan bahwa algoritma ini secara tidak langsung mendiskriminasi kelompok yang terpinggirkan, seperti penyandang disabilitas dan keluarga ibu tunggal. Banyak orang yang menerima bantuan sosial, termasuk mereka dari komunitas berpenghasilan rendah, sering kali mengalami akibat berat akibat penilaian algoritma ini, seperti penyelidikan yang menegangkan dan penangguhan pembayaran bantuan. Kasus ini juga dapat mempengaruhi bagaimana aturan baru Uni Eropa tentang penggunaan kecerdasan buatan akan diterapkan di masa mendatang, dengan rencana untuk melarang "penilaian sosial" yang merugikan.
Sumber: https://wired.com/story/algorithms-policed-welfare-systems-for-years-now-theyre-under-fire-for-bias/

Artikel Serupa

Sistem AI dengan 'risiko yang tidak dapat diterima' sekarang dilarang di UE.
Sistem AI dengan 'risiko yang tidak dapat diterima' sekarang dilarang di UE.
Dari TechCrunch
California Mengatur Teknologi Pengambilan Keputusan Otomatis Berbasis AI: Apa Artinya Bagi Anda
California Mengatur Teknologi Pengambilan Keputusan Otomatis Berbasis AI: Apa Artinya Bagi Anda
Dari Forbes
Di Dalam Kotak Hitam Pengawasan Perjalanan Prediktif
Di Dalam Kotak Hitam Pengawasan Perjalanan Prediktif
Dari Wired
Badan privasi UE mempertimbangkan beberapa pertanyaan hukum yang rumit terkait GenAI.
Badan privasi UE mempertimbangkan beberapa pertanyaan hukum yang rumit terkait GenAI.
Dari TechCrunch
Google mengatakan pelanggan dapat menggunakan AI-nya di domain 'berisiko tinggi', asalkan ada pengawasan manusia.
Google mengatakan pelanggan dapat menggunakan AI-nya di domain 'berisiko tinggi', asalkan ada pengawasan manusia.
Dari TechCrunch
OpenAI mendanai penelitian tentang 'moralitas AI'.
OpenAI mendanai penelitian tentang 'moralitas AI'.
Dari TechCrunch
Pola Gelap yang Didorong oleh AI: Bagaimana Kecerdasan Buatan Meningkatkan Manipulasi Digital
Pola Gelap yang Didorong oleh AI: Bagaimana Kecerdasan Buatan Meningkatkan Manipulasi Digital
Dari Forbes
Sistem AI dengan 'risiko yang tidak dapat diterima' sekarang dilarang di UE.TechCrunch
Teknologi
6 bulan lalu
180 dibaca

Sistem AI dengan 'risiko yang tidak dapat diterima' sekarang dilarang di UE.

California Mengatur Teknologi Pengambilan Keputusan Otomatis Berbasis AI: Apa Artinya Bagi AndaForbes
Teknologi
6 bulan lalu
164 dibaca

California Mengatur Teknologi Pengambilan Keputusan Otomatis Berbasis AI: Apa Artinya Bagi Anda

Di Dalam Kotak Hitam Pengawasan Perjalanan PrediktifWired
Teknologi
6 bulan lalu
52 dibaca

Di Dalam Kotak Hitam Pengawasan Perjalanan Prediktif

Badan privasi UE mempertimbangkan beberapa pertanyaan hukum yang rumit terkait GenAI.TechCrunch
Teknologi
7 bulan lalu
138 dibaca

Badan privasi UE mempertimbangkan beberapa pertanyaan hukum yang rumit terkait GenAI.

Google mengatakan pelanggan dapat menggunakan AI-nya di domain 'berisiko tinggi', asalkan ada pengawasan manusia.TechCrunch
Teknologi
7 bulan lalu
145 dibaca

Google mengatakan pelanggan dapat menggunakan AI-nya di domain 'berisiko tinggi', asalkan ada pengawasan manusia.

OpenAI mendanai penelitian tentang 'moralitas AI'.TechCrunch
Teknologi
8 bulan lalu
133 dibaca

OpenAI mendanai penelitian tentang 'moralitas AI'.

Pola Gelap yang Didorong oleh AI: Bagaimana Kecerdasan Buatan Meningkatkan Manipulasi DigitalForbes
Teknologi
8 bulan lalu
147 dibaca

Pola Gelap yang Didorong oleh AI: Bagaimana Kecerdasan Buatan Meningkatkan Manipulasi Digital