Apakah Algoritma LinkedIn Bias Gender? Eksperimen #WearthePants Ungkap Hal Mengejutkan
Courtesy of TechCrunch

Apakah Algoritma LinkedIn Bias Gender? Eksperimen #WearthePants Ungkap Hal Mengejutkan

Mengeksplorasi apakah algoritma LinkedIn secara implisit bias terhadap perempuan melalui eksperimen #WearthePants dan bagaimana dampak sesungguhnya terhadap visibilitas konten serta keterlibatan pengguna di platform tersebut.

13 Des 2025, 02.38 WIB
152 dibaca
Share
Ikhtisar 15 Detik
  • Ada indikasi bias gender dalam algoritma LinkedIn yang mempengaruhi keterlibatan konten.
  • Eksperimen #WearthePants menunjukkan bahwa perubahan kecil dalam profil dapat berdampak besar pada impresi.
  • LinkedIn perlu meningkatkan transparansi dan menjelaskan lebih lanjut tentang cara kerja algoritma mereka.
Tidak spesifik, kemungkinan Amerika Serikat - Sejak LinkedIn mulai menerapkan algoritma berbasis model bahasa besar (LLM), beberapa pengguna wanita melaporkan menurunnya impresi dan keterlibatan postingan mereka. Kekhawatiran muncul tentang kemungkinan adanya bias algoritma yang kurang menguntungkan perempuan di platform media sosial profesional ini. Eksperimen bernama #WearthePants dilakukan oleh beberapa wanita dengan mengubah jenis kelamin profil mereka menjadi pria untuk menguji dugaan bias tersebut.
Hasil eksperimen menunjukkan peningkatan impresi yang signifikan setelah perubahan gender profil menjadi pria, seperti kasus Michelle yang impresinya melonjak hingga 200%. Namun LinkedIn membantah bahwa jenis kelamin adalah faktor dalam algoritma mereka dan menjelaskan bahwa sistem mereka melihat banyak sinyal, seperti gaya penulisan, aktivitas, dan interaksi pengguna. Pakar algoritma menyatakan bahwa kemungkinan bias implisit masih ada karena data pelatihan LLM yang berasal dari konten manusia.
Selain gender, faktor lain seperti nada dan gaya komunikasi juga mempengaruhi bagaimana algoritma LinkedIn memprioritaskan konten. Gaya tulisan yang diasosiasikan dengan maskulinitas dianggap memberi nilai lebih oleh sistem, sementara gaya yang diasosiasikan dengan perempuan cenderung tidak diutamakan. Disisi lain, pengguna merasa bingung dan frustrasi karena perubahan misterius dalam algoritma ini membuatnya sulit untuk menyesuaikan strategi konten mereka.
Beberapa pengguna dan peneliti mengemukakan bahwa meskipun tidak ada diskriminasi eksplisit, bias implisit seperti stereotip gender atau ras mungkin masih diam-diam memengaruhi penentuan konten yang dilihat. LinkedIn sendiri juga mengakui kesulitan dalam transparansi, sebab membuka detail algoritma bisa mengundang upaya manipulasi. Mereka menekankan bahwa mereka terus melakukan pengujian untuk memastikan keadilan dan relevansi konten pada penggunanya.
Kasus ini memperlihatkan tantangan besar bagi platform media sosial dalam menangani bias algoritma, khususnya yang menggunakan AI dan LLM. Para pengguna menuntut transparansi dan keadilan, sementara perusahaan harus menyeimbangkan antara menjaga kerahasiaan teknologi dengan memberi keadilan bagi semua demografi pengguna. Ini menjadi pelajaran penting bahwa algoritma yang tampak netral bisa menyembunyikan bias implisit yang membutuhkan perhatian serius.
Referensi:
[1] https://techcrunch.com/2025/12/12/ok-whats-going-on-with-linkedins-algo/

Analisis Ahli

Brandeis Marshall
"Algoritma media sosial merupakan kombinasi kompleks dari banyak faktor sosial dan matematis, di mana perubahan kecil pada profil bisa memicu respons yang berbeda dari sistem."
Sarah Dean
"Demografi pengguna memengaruhi kedua sisi algoritma: apa yang mereka lihat dan siapa yang melihat postingan mereka, sehingga gender dan profil pekerjaan punya peran signifikan."
Chad Johnson
"Algoritma kini fokus pada kualitas tulisan yang menunjukkan pemahaman dan kejelasan, bukan hanya frekuensi atau waktu posting."

Analisis Kami

"Analisis menunjukkan bahwa meskipun LinkedIn tidak menggunakan data demografis secara eksplisit, bias implisit tetap dapat muncul dari pola interaksi dan gaya penulisan yang diutamakan oleh algoritma. Karena algoritma sangat kompleks dan kurang transparan, sangat penting bagi perusahaan untuk membuka dialog dan menyediakan lebih banyak informasi agar pengguna memahami bagaimana konten mereka dinilai."

Prediksi Kami

LinkedIn dan platform media sosial lain kemungkinan akan semakin dituntut untuk lebih transparan tentang mekanisme algoritma mereka, serta melakukan upaya serius untuk mengurangi bias implisit agar pengalaman pengguna lebih adil.

Pertanyaan Terkait

Q
Apa tujuan eksperimen #WearthePants?
A
Tujuan eksperimen #WearthePants adalah untuk menguji apakah ada bias gender dalam algoritma LinkedIn yang mempengaruhi keterlibatan konten.
Q
Siapa yang melakukan eksperimen ini?
A
Eksperimen ini dilakukan oleh Michelle, Marilynn Joyner, Cindy Gallop, dan Jane Evans.
Q
Apa yang ditemukan oleh Michelle dan Marilynn setelah mengubah gender di profil LinkedIn mereka?
A
Mereka menemukan bahwa setelah mengubah gender di profil mereka, impresi dan keterlibatan pos mereka meningkat secara signifikan.
Q
Bagaimana LinkedIn menjelaskan algoritma mereka terkait dengan bias gender?
A
LinkedIn menyatakan bahwa algoritma mereka tidak menggunakan informasi demografis seperti gender untuk menentukan visibilitas konten.
Q
Apa yang harus dilakukan LinkedIn untuk meningkatkan transparansi tentang algoritma mereka?
A
LinkedIn perlu memberikan lebih banyak transparansi dan akuntabilitas terkait bias yang mungkin ada dalam algoritmanya.