Courtesy of TechCrunch
OpenAI Tahan Model AI Riset Mendalam Demi Cegah Penyebaran Misinformasi Berbahaya
26 Feb 2025, 03.07 WIB
197 dibaca
Share
Ikhtisar 15 Detik
- OpenAI sedang berusaha untuk memahami dan mengurangi risiko yang terkait dengan persuasi menggunakan AI.
- Model penelitian mendalam menunjukkan kemampuan persuasi yang lebih baik dibandingkan model lain, tetapi masih ada batasan.
- Penyebaran informasi menyesatkan melalui teknologi AI, seperti deepfake, menjadi perhatian serius dalam konteks politik.
OpenAI mengumumkan bahwa mereka tidak akan membawa model AI yang digunakan untuk penelitian mendalam ke dalam API pengembangnya, karena mereka sedang mempertimbangkan risiko yang mungkin ditimbulkan oleh AI dalam mempengaruhi orang untuk mengubah keyakinan mereka. Dalam sebuah dokumen yang diterbitkan, OpenAI menjelaskan bahwa mereka sedang memperbaiki cara untuk menguji model-modelnya terkait risiko persuasi di dunia nyata, seperti penyebaran informasi yang menyesatkan. Meskipun model ini tidak cocok untuk kampanye disinformasi karena biaya komputasi yang tinggi dan kecepatan yang lambat, OpenAI tetap ingin mengeksplorasi bagaimana AI dapat mempersonalisasi konten yang berpotensi berbahaya sebelum memperkenalkan model ini ke API.
Dalam pengujian, model penelitian mendalam menunjukkan kemampuan persuasif yang lebih baik dibandingkan model-model OpenAI lainnya, meskipun tidak lebih baik dari manusia. Model ini juga berhasil meyakinkan model lain untuk melakukan pembayaran, tetapi tidak selalu berhasil dalam semua tes. OpenAI mencatat bahwa hasil pengujian ini mungkin hanya mencerminkan batas bawah dari kemampuan model tersebut, dan ada kemungkinan bahwa dengan perbaikan lebih lanjut, kinerjanya bisa meningkat.
--------------------
Analisis Kami: Langkah OpenAI ini sangat bijaksana mengingat potensi bahaya AI dalam menyebarkan misinformasi yang bisa mengganggu stabilitas sosial dan politik. Namun, menahan teknologi yang memiliki potensi besar untuk riset mendalam juga bisa memperlambat inovasi jika tidak dibarengi dengan pengembangan protokol keamanan yang tepat.
--------------------
Analisis Ahli:
Andrew Ng: Langkah pengujian dan evaluasi risiko yang dilakukan OpenAI adalah pendekatan yang sangat bertanggung jawab untuk teknologi AI yang semakin canggih.
Fei-Fei Li: Kehati-hatian OpenAI dalam menghadapi potensi penyalahgunaan AI adalah hal penting agar teknologi ini dapat digunakan untuk kebaikan bersama tanpa membahayakan masyarakat.
--------------------
What's Next: OpenAI kemungkinan akan mengembangkan metode deteksi dan mitigasi risiko yang lebih canggih sebelum model riset mendalam mereka tersedia secara publik melalui API, sehingga perlindungan terhadap misinformasi dan penyalahgunaan AI semakin ketat di masa depan.
Referensi:
[1] https://techcrunch.com/2025/02/25/why-openai-isnt-bringing-deep-research-to-its-api-just-yet/
[1] https://techcrunch.com/2025/02/25/why-openai-isnt-bringing-deep-research-to-its-api-just-yet/
Pertanyaan Terkait
Q
Apa yang sedang dilakukan OpenAI terkait model penelitian mendalam?A
OpenAI sedang merevisi metode mereka untuk menilai risiko persuasi model AI, termasuk risiko penyebaran informasi menyesatkan.Q
Mengapa OpenAI tidak membawa model ini ke API mereka?A
OpenAI tidak membawa model ini ke API mereka karena mereka ingin memahami risiko persuasi yang lebih baik.Q
Apa risiko yang terkait dengan penggunaan AI dalam persuasi?A
Risiko terkait penggunaan AI dalam persuasi termasuk penyebaran informasi yang menyesatkan dan potensi untuk mempengaruhi keyakinan orang.Q
Apa yang terjadi di Taiwan terkait dengan deepfake?A
Di Taiwan, sebuah kelompok yang terkait dengan Partai Komunis Tiongkok menyebarkan audio deepfake yang menyesatkan pada hari pemilihan.Q
Bagaimana hasil pengujian model penelitian mendalam dibandingkan dengan model lain?A
Hasil pengujian menunjukkan bahwa model penelitian mendalam lebih baik dalam persuasi dibandingkan model OpenAI lainnya, tetapi tidak lebih baik dari manusia.