Bahaya Kesalahan AI Medis: Ketika 'Basilar Ganglia' Jadi Bumerang Diagnosa
Courtesy of TheVerge

Bahaya Kesalahan AI Medis: Ketika 'Basilar Ganglia' Jadi Bumerang Diagnosa

Menyoroti risiko dan bahaya kesalahan AI kesehatan seperti Med-Gemini yang dapat memberikan diagnosa keliru dalam bidang medis, dan pentingnya kehati-hatian serta validasi manusia sebelum adopsi luas teknologi AI dalam praktek klinis.

04 Agt 2025, 21.00 WIB
44 dibaca
Share
Ikhtisar 15 Detik
  • Kesalahan dalam AI kesehatan dapat berakibat fatal dalam diagnosis medis.
  • Pentingnya pengawasan manusia dalam penggunaan teknologi AI di bidang medis.
  • Akurasi dan keandalan model AI harus dipertahankan agar dapat digunakan dengan aman dalam praktik klinis.
Amerika Serikat - Google memperkenalkan Med-Gemini, sebuah model AI kesehatan canggih yang bisa membantu dalam membaca data medis, termasuk hasil radiologi. Model ini dirancang untuk menunjang dokter dengan menemukan abnormalitas yang mungkin terlewatkan.
Namun, Med-Gemini menghasilkan kesalahan dalam laporan yang menyebut adanya masalah di 'basilar ganglia', sebuah istilah yang salah dan tidak ada dalam anatomi otak. Istilah yang benar adalah 'basal ganglia' yang berperan dalam kontrol motor dan fungsi otak lainnya.
Kesalahan ini menjadi sorotan saat seorang neurologis bernama Bryan Moore mengingatkan Google, tetapi perusahaan tersebut hanya mengubah blog tanpa transparansi dan membiarkan dokumen penelitian tetap berisi kesalahan tersebut.
Para ahli kesehatan mengingatkan bahwa kesalahan kecil seperti ini sangat berbahaya karena AI sangat dipercaya dan kesalahan bisa menyebar tanpa diketahui, memperlihatkan risiko otomatisasi dan tingginya kebutuhan validasi manusia di setiap langkah.
Meskipun AI kesehatan menjanjikan kemajuan besar, para profesional menekankan bahwa model AI harus dikembangkan dengan standar ketat, serta didukung sistem deteksi kesalahan real-time agar dapat digunakan secara aman dalam praktik medis.
--------------------
Analisis Kami: Meski AI memiliki potensi besar untuk meningkatkan efisiensi di bidang medis, kesalahan dasar seperti salah istilah anatomi menunjukkan teknologi ini belum siap diandalkan sepenuhnya. Kebutuhan akan pengawasan manusia dan validasi klinis yang ketat tidak bisa diabaikan agar keselamatan pasien tetap prioritas utama.
--------------------
Analisis Ahli:
Maulin Shah: Kesalahan dua huruf ini sangat berbahaya karena bisa menyebabkan kesalahan diagnosis yang serius dan ada risiko bahwa kesalahan ini terus dipropagasi di catatan medis.
Bryan Moore: Kesalahan tersebut adalah contoh nyata bahwa AI sering membuat kesalahan serius yang bisa terlewat oleh perusahaan besar tanpa transparansi yang memadai.
Judy Gichoya: AI cenderung melakukan hallucinations dan tidak pernah mengatakan 'saya tidak tahu', sehingga membuatnya kurang dapat diandalkan dalam setting klinis yang membutuhkan keakuratan tinggi.
Jonathan Chen: Penggunaan AI dalam bidang kesehatan masih pada tahap awal dan kurang matang, sehingga penerapan yang terburu-buru bisa sangat berbahaya karena risiko yang menyertainya.
Michael Pencina: Kesalahan ini lebih cenderung merupakan hallucination bukan typo, dan konsekuensi kesalahan AI harus dipertimbangkan dalam konteks tingkat risiko aplikasi.
--------------------
What's Next: Kedepannya, ada kemungkinan peningkatan regulasi dan standar ketat untuk penggunaan AI di bidang kesehatan, termasuk sistem pendeteksi kesalahan otomatis yang lebih maju agar mengurangi risiko diagnosa keliru.
Referensi:
[1] https://theverge.com/health/718049/google-med-gemini-basilar-ganglia-paper-typo-hallucination

Pertanyaan Terkait

Q
Apa kesalahan yang ditemukan dalam model AI Med-Gemini?
A
Kesalahan yang ditemukan adalah penggunaan istilah 'basilar ganglia' yang tidak ada, seharusnya 'basal ganglia'.
Q
Siapa yang pertama kali mengidentifikasi kesalahan tersebut?
A
Bryan Moore, seorang neurologis bersertifikat, adalah yang pertama kali mengidentifikasi kesalahan tersebut.
Q
Mengapa kesalahan dalam model AI dianggap berbahaya?
A
Kesalahan dalam model AI dapat menyebabkan diagnosis yang salah, yang berpotensi membahayakan keselamatan pasien.
Q
Apa yang dilakukan Google setelah kesalahan ditemukan?
A
Setelah kesalahan ditemukan, Google memperbaiki blog post tetapi tidak mengubah publikasi penelitian yang mengandung kesalahan.
Q
Apa pendapat para ahli tentang penggunaan AI dalam kesehatan?
A
Para ahli menyatakan bahwa penggunaan AI dalam kesehatan harus diwaspadai dan memerlukan standar yang lebih tinggi daripada manusia.

Artikel Serupa

Mengapa AI Bisa Salah dan Bagaimana Kita Membuatnya Lebih Aman dan TepatInterestingEngineering
Teknologi
3 bulan lalu
74 dibaca

Mengapa AI Bisa Salah dan Bagaimana Kita Membuatnya Lebih Aman dan Tepat

Pembalikan TikTok dan Ilmu di Balik Keputusan Medis yang Tidak LogisForbes
Sains
6 bulan lalu
234 dibaca

Pembalikan TikTok dan Ilmu di Balik Keputusan Medis yang Tidak Logis

Pada tahun 2024, kecerdasan buatan berfokus pada penerapan alat AI dalam praktik.YahooFinance
Teknologi
7 bulan lalu
288 dibaca

Pada tahun 2024, kecerdasan buatan berfokus pada penerapan alat AI dalam praktik.

Nasihat untuk Pemimpin AI yang Berambisi: Mulailah Kecil, Pikirkan Besar, Bergerak CepatForbes
Teknologi
7 bulan lalu
131 dibaca

Nasihat untuk Pemimpin AI yang Berambisi: Mulailah Kecil, Pikirkan Besar, Bergerak Cepat

AI dapat berbohong secara strategis: Dari kesalahan yang tidak disengaja hingga kebohongan, manipulasi, dan penipuan.InterestingEngineering
Teknologi
7 bulan lalu
310 dibaca

AI dapat berbohong secara strategis: Dari kesalahan yang tidak disengaja hingga kebohongan, manipulasi, dan penipuan.

Bagaimana AI Dapat Membantu Membuat Kesehatan Masyarakat Lebih Terjangkau dan InklusifForbes
Sains
8 bulan lalu
189 dibaca

Bagaimana AI Dapat Membantu Membuat Kesehatan Masyarakat Lebih Terjangkau dan Inklusif