OpenAI’s Sora Is Plagued by Sexist, Racist, and Ableist Biases  
OpenAI's Sora Faces Serious Issues with Sexism, Racism, and Ableism!
Courtesy of Wired

OpenAI’s Sora Is Plagued by Sexist, Racist, and Ableist Biases OpenAI's Sora Faces Serious Issues with Sexism, Racism, and Ableism!

Wired
Dari Wired
23 Mar 2025, 17.00 WIB
30 dibaca
Share
Ikhtisar 15 Detik
  • Model AI seperti Sora dapat memperkuat stereotip sosial yang ada.
  • Upaya untuk mengurangi bias dalam AI memerlukan pendekatan yang lebih holistik dan kolaboratif.
  • Dampak bias dalam AI dapat memiliki konsekuensi nyata di dunia nyata, terutama dalam konteks periklanan dan keamanan.
Sebuah penyelidikan oleh WIRED menemukan bahwa video yang dihasilkan oleh alat AI seperti OpenAI's Sora sering kali memperkuat stereotip yang seksis, rasis, dan mampu. Misalnya, dalam video yang dihasilkan, pilot dan CEO biasanya digambarkan sebagai pria, sementara pramugari dan pekerja perawatan anak digambarkan sebagai wanita. Selain itu, orang-orang yang digambarkan dalam video tersebut cenderung muda, ramping, dan menarik, sementara orang dengan disabilitas sering kali hanya digambarkan menggunakan kursi roda.
Sora juga menunjukkan kesulitan dalam menggambarkan hubungan yang beragam. Ketika diminta untuk menghasilkan video tentang pasangan gay, sebagian besar yang dihasilkan adalah pasangan pria yang tampak serupa, dan ketika diminta untuk menggambarkan hubungan antar ras, hasilnya sering kali tidak sesuai dengan harapan. Hal ini menunjukkan bahwa model AI ini memiliki keterbatasan dalam menciptakan representasi yang akurat dan beragam dari masyarakat.
Para peneliti menyarankan bahwa untuk mengatasi masalah bias ini, penting untuk meningkatkan keragaman dalam data pelatihan model AI. Namun, mereka juga memperingatkan bahwa hanya memperbaiki data tidak cukup, dan perlu ada kolaborasi dengan berbagai ahli untuk memahami risiko sosial yang mungkin ditimbulkan oleh model-model ini. Dengan semakin banyaknya pengguna yang mengakses Sora, ada harapan bahwa pengembang akan lebih memperhatikan masalah bias ini.

Pertanyaan Terkait

Q
Apa yang ditemukan oleh investigasi WIRED tentang model Sora dari OpenAI?
A
Investigasi WIRED menemukan bahwa model Sora perpetuates stereotip seksis, rasis, dan ableis dalam hasilnya.
Q
Apa saja jenis bias yang teridentifikasi dalam video yang dihasilkan oleh Sora?
A
Bias yang teridentifikasi termasuk representasi gender yang tidak seimbang, stereotip rasial, dan penggambaran orang dengan disabilitas yang terbatas.
Q
Bagaimana OpenAI berusaha mengurangi bias dalam model AI mereka?
A
OpenAI berusaha mengurangi bias dengan meneliti cara mengubah data pelatihan dan menyesuaikan prompt pengguna.
Q
Apa dampak potensial dari bias dalam video AI di bidang periklanan dan keamanan?
A
Bias dalam video AI dapat memperburuk stereotip atau penghapusan kelompok terpinggirkan, serta berpotensi berbahaya dalam konteks keamanan.
Q
Siapa saja para peneliti yang terlibat dalam analisis bias Sora?
A
Para peneliti seperti Amy Gaeta dan Maarten Sap terlibat dalam analisis bias Sora.

Artikel Serupa

AI’s answers on China differ depending on the language, analysis finds.TechCrunch
Teknologi
2 bulan lalu
124 dibaca

AI’s answers on China differ depending on the language, analysis finds.

OpenAI berusaha untuk 'menghapus sensor' ChatGPT.TechCrunch
Teknologi
3 bulan lalu
199 dibaca

OpenAI berusaha untuk 'menghapus sensor' ChatGPT.

Berikut adalah Cara Kerja Sensor DeepSeek Sebenarnya—dan Cara MenghindarinyaWired
Teknologi
4 bulan lalu
167 dibaca

Berikut adalah Cara Kerja Sensor DeepSeek Sebenarnya—dan Cara Menghindarinya

Mengapa Semua Orang — Dari Teknolog hingga Kreatif — Perlu Membimbing Desain AIForbes
Teknologi
5 bulan lalu
191 dibaca

Mengapa Semua Orang — Dari Teknolog hingga Kreatif — Perlu Membimbing Desain AI

Siapa yang menginginkan AI seperti 'Her' yang sering salah?TechCrunch
Teknologi
5 bulan lalu
198 dibaca

Siapa yang menginginkan AI seperti 'Her' yang sering salah?

Tampaknya OpenAI melatih Sora dengan konten permainan — dan para ahli hukum mengatakan bahwa itu bisa menjadi masalah.TechCrunch
Teknologi
6 bulan lalu
118 dibaca

Tampaknya OpenAI melatih Sora dengan konten permainan — dan para ahli hukum mengatakan bahwa itu bisa menjadi masalah.