Courtesy of Wired
Alat Transkripsi OpenAI Menghasilkan Informasi yang Salah. Rumah Sakit Tetap Menggunakannya.
30 Okt 2024, 19.00 WIB
99 dibaca
Share
Whisper adalah alat transkripsi audio yang dikembangkan oleh OpenAI dan diluncurkan pada tahun 2022. Meskipun OpenAI mengklaim bahwa Whisper mendekati akurasi transkripsi setara manusia, penelitian menunjukkan bahwa alat ini sering menghasilkan kesalahan. Sebuah studi dari Universitas Michigan menemukan bahwa 80% transkripsi dari pertemuan publik yang diperiksa mengandung teks yang salah. Di bidang kesehatan, lebih dari 30.000 pekerja medis menggunakan alat berbasis Whisper untuk mentranskripsi kunjungan pasien, meskipun OpenAI memperingatkan bahwa alat ini tidak cocok untuk digunakan dalam situasi berisiko tinggi. Hal ini berpotensi membahayakan pasien, terutama mereka yang tuli, karena mereka tidak dapat memverifikasi akurasi transkripsi.
Masalah dengan Whisper muncul karena kecenderungannya untuk "mengada-ada" atau menciptakan informasi yang tidak ada dalam audio asli. Penelitian menunjukkan bahwa Whisper dapat menambahkan konten yang tidak ada, termasuk pernyataan yang berpotensi berbahaya atau rasial. Misalnya, dalam satu kasus, Whisper menambahkan informasi yang tidak ada tentang ras individu yang disebutkan dalam audio. OpenAI mengakui masalah ini dan berusaha untuk memperbaikinya, tetapi banyak perusahaan kesehatan tetap menggunakan alat ini untuk mengurangi biaya, yang dapat menyebabkan konsekuensi negatif bagi pasien.