OpenAI Tahan Model AI Riset Mendalam Demi Cegah Penyebaran Misinformasi Berbahaya
Courtesy of TechCrunch

OpenAI Tahan Model AI Riset Mendalam Demi Cegah Penyebaran Misinformasi Berbahaya

26 Feb 2025, 03.07 WIB
197 dibaca
Share
Ikhtisar 15 Detik
  • OpenAI sedang berusaha untuk memahami dan mengurangi risiko yang terkait dengan persuasi menggunakan AI.
  • Model penelitian mendalam menunjukkan kemampuan persuasi yang lebih baik dibandingkan model lain, tetapi masih ada batasan.
  • Penyebaran informasi menyesatkan melalui teknologi AI, seperti deepfake, menjadi perhatian serius dalam konteks politik.
OpenAI mengumumkan bahwa mereka tidak akan membawa model AI yang digunakan untuk penelitian mendalam ke dalam API pengembangnya, karena mereka sedang mempertimbangkan risiko yang mungkin ditimbulkan oleh AI dalam mempengaruhi orang untuk mengubah keyakinan mereka. Dalam sebuah dokumen yang diterbitkan, OpenAI menjelaskan bahwa mereka sedang memperbaiki cara untuk menguji model-modelnya terkait risiko persuasi di dunia nyata, seperti penyebaran informasi yang menyesatkan. Meskipun model ini tidak cocok untuk kampanye disinformasi karena biaya komputasi yang tinggi dan kecepatan yang lambat, OpenAI tetap ingin mengeksplorasi bagaimana AI dapat mempersonalisasi konten yang berpotensi berbahaya sebelum memperkenalkan model ini ke API.
Dalam pengujian, model penelitian mendalam menunjukkan kemampuan persuasif yang lebih baik dibandingkan model-model OpenAI lainnya, meskipun tidak lebih baik dari manusia. Model ini juga berhasil meyakinkan model lain untuk melakukan pembayaran, tetapi tidak selalu berhasil dalam semua tes. OpenAI mencatat bahwa hasil pengujian ini mungkin hanya mencerminkan batas bawah dari kemampuan model tersebut, dan ada kemungkinan bahwa dengan perbaikan lebih lanjut, kinerjanya bisa meningkat.
--------------------
Analisis Kami: Langkah OpenAI ini sangat bijaksana mengingat potensi bahaya AI dalam menyebarkan misinformasi yang bisa mengganggu stabilitas sosial dan politik. Namun, menahan teknologi yang memiliki potensi besar untuk riset mendalam juga bisa memperlambat inovasi jika tidak dibarengi dengan pengembangan protokol keamanan yang tepat.
--------------------
Analisis Ahli:
Andrew Ng: Langkah pengujian dan evaluasi risiko yang dilakukan OpenAI adalah pendekatan yang sangat bertanggung jawab untuk teknologi AI yang semakin canggih.
Fei-Fei Li: Kehati-hatian OpenAI dalam menghadapi potensi penyalahgunaan AI adalah hal penting agar teknologi ini dapat digunakan untuk kebaikan bersama tanpa membahayakan masyarakat.
--------------------
What's Next: OpenAI kemungkinan akan mengembangkan metode deteksi dan mitigasi risiko yang lebih canggih sebelum model riset mendalam mereka tersedia secara publik melalui API, sehingga perlindungan terhadap misinformasi dan penyalahgunaan AI semakin ketat di masa depan.
Referensi:
[1] https://techcrunch.com/2025/02/25/why-openai-isnt-bringing-deep-research-to-its-api-just-yet/

Pertanyaan Terkait

Q
Apa yang sedang dilakukan OpenAI terkait model penelitian mendalam?
A
OpenAI sedang merevisi metode mereka untuk menilai risiko persuasi model AI, termasuk risiko penyebaran informasi menyesatkan.
Q
Mengapa OpenAI tidak membawa model ini ke API mereka?
A
OpenAI tidak membawa model ini ke API mereka karena mereka ingin memahami risiko persuasi yang lebih baik.
Q
Apa risiko yang terkait dengan penggunaan AI dalam persuasi?
A
Risiko terkait penggunaan AI dalam persuasi termasuk penyebaran informasi yang menyesatkan dan potensi untuk mempengaruhi keyakinan orang.
Q
Apa yang terjadi di Taiwan terkait dengan deepfake?
A
Di Taiwan, sebuah kelompok yang terkait dengan Partai Komunis Tiongkok menyebarkan audio deepfake yang menyesatkan pada hari pemilihan.
Q
Bagaimana hasil pengujian model penelitian mendalam dibandingkan dengan model lain?
A
Hasil pengujian menunjukkan bahwa model penelitian mendalam lebih baik dalam persuasi dibandingkan model OpenAI lainnya, tetapi tidak lebih baik dari manusia.

Artikel Serupa

OpenAI Siapkan Model Bahasa Terbuka Berfitur Reasoning dengan Lisensi BebasTechCrunch
Teknologi
3 bulan lalu
153 dibaca

OpenAI Siapkan Model Bahasa Terbuka Berfitur Reasoning dengan Lisensi Bebas

GPT-4.1 OpenAI: Model Baru yang Lebih Kuat Tapi Kurang Aman dan AndalanTechCrunch
Teknologi
3 bulan lalu
196 dibaca

GPT-4.1 OpenAI: Model Baru yang Lebih Kuat Tapi Kurang Aman dan Andalan

GPT-4.5 OpenAI Terbukti Sangat Persuasif, Tetap Waspadai Risiko ManipulasiTechCrunch
Teknologi
5 bulan lalu
250 dibaca

GPT-4.5 OpenAI Terbukti Sangat Persuasif, Tetap Waspadai Risiko Manipulasi

OpenAI Luncurkan GPT-4.5, Model Besar tapi Bukan Terobosan Baru AITechCrunch
Teknologi
5 bulan lalu
117 dibaca

OpenAI Luncurkan GPT-4.5, Model Besar tapi Bukan Terobosan Baru AI

OpenAI dan Google Perkenalkan Alat AI untuk Membuat Review Ilmiah OtomatisNatureMagazine
Teknologi
6 bulan lalu
208 dibaca

OpenAI dan Google Perkenalkan Alat AI untuk Membuat Review Ilmiah Otomatis

Hugging Face Luncurkan Open Deep Research, Alternatif Terbuka Deep Research OpenAITechCrunch
Teknologi
6 bulan lalu
175 dibaca

Hugging Face Luncurkan Open Deep Research, Alternatif Terbuka Deep Research OpenAI