Courtesy of TechCrunch
Alat transkripsi Whisper dari OpenAI memiliki masalah halusinasi, kata para peneliti.
27 Okt 2024, 03.49 WIB
65 dibaca
Share
Para insinyur perangkat lunak dan peneliti merasa khawatir tentang hasil transkripsi dari alat OpenAI yang bernama Whisper. Meskipun biasanya transkripsi diharapkan mengikuti audio dengan akurat, banyak peneliti melaporkan bahwa Whisper sering kali menghasilkan informasi yang salah atau tidak relevan, seperti komentar rasial dan pengobatan yang tidak ada. Hal ini sangat berbahaya, terutama jika Whisper digunakan di rumah sakit atau dalam konteks medis lainnya.
Sebuah penelitian dari Universitas Michigan menunjukkan bahwa delapan dari sepuluh transkripsi audio mengandung kesalahan, dan seorang insinyur mesin menemukan bahwa lebih dari setengah dari lebih dari 100 jam transkripsi juga memiliki kesalahan. Seorang pengembang melaporkan bahwa hampir semua dari 26.000 transkripsi yang dia buat dengan Whisper juga mengandung kesalahan. Meskipun OpenAI berusaha untuk meningkatkan akurasi modelnya dan melarang penggunaan Whisper dalam situasi penting, masalah ini tetap menjadi perhatian besar.