Kepala kebijakan lama OpenAI mengkritik perusahaan karena 'menulis ulang' sejarah keselamatan AI-nya.
Courtesy of TechCrunch

Kepala kebijakan lama OpenAI mengkritik perusahaan karena 'menulis ulang' sejarah keselamatan AI-nya.

07 Mar 2025, 00.09 WIB
135 dibaca
Share
Ikhtisar 15 Detik
  • Kritik terhadap OpenAI menunjukkan ketidakpuasan terhadap pendekatan mereka terhadap keamanan AI.
  • Pentingnya pendekatan bertahap dalam pengembangan dan penerapan sistem AI untuk mengurangi risiko.
  • Tekanan kompetitif dapat mempengaruhi keputusan perusahaan dalam hal keamanan dan tanggung jawab.
Miles Brundage, seorang mantan peneliti kebijakan di OpenAI, mengkritik perusahaan tersebut karena mengubah cara pandang mereka tentang peluncuran sistem AI yang berisiko. OpenAI baru-baru ini merilis dokumen yang menjelaskan filosofi mereka tentang keselamatan dan keselarasan AI, menyatakan bahwa pengembangan AI yang cerdas (AGI) adalah proses yang berkelanjutan. Namun, Brundage berpendapat bahwa saat OpenAI merilis model GPT-2, mereka sudah mengambil langkah hati-hati yang sesuai dengan pendekatan peluncuran bertahap yang mereka sebutkan sekarang.
Brundage merasa bahwa OpenAI seharusnya tidak meremehkan pentingnya kehati-hatian dalam pengembangan AI. Dia khawatir bahwa dokumen tersebut menciptakan anggapan bahwa kekhawatiran tentang risiko AI dianggap berlebihan, dan bahwa perusahaan perlu bukti yang sangat kuat sebelum mengambil tindakan. Dengan meningkatnya tekanan kompetitif dan kerugian finansial yang besar, Brundage mempertanyakan apakah OpenAI seharusnya mempercepat peluncuran produk mereka, meskipun itu bisa mengorbankan keselamatan jangka panjang.
Sumber: https://techcrunch.com/2025/03/06/openais-ex-policy-lead-criticizes-the-company-for-rewriting-its-ai-safety-history/

Pertanyaan Terkait

Q
Apa kritik yang disampaikan oleh Miles Brundage terhadap OpenAI?
A
Miles Brundage mengkritik OpenAI karena dianggap 'menulis ulang sejarah' pendekatan mereka terhadap penerapan sistem AI yang berisiko.
Q
Apa yang dimaksud dengan pendekatan 'iterative deployment' yang diambil oleh OpenAI?
A
Pendekatan 'iterative deployment' berarti mengembangkan dan menerapkan sistem AI secara bertahap sambil belajar dari setiap iterasi untuk meningkatkan keamanan dan manfaat.
Q
Mengapa OpenAI awalnya tidak merilis kode sumber GPT-2?
A
OpenAI awalnya tidak merilis kode sumber GPT-2 karena khawatir akan potensi penyalahgunaan model tersebut.
Q
Apa dampak dari kompetisi dengan DeepSeek terhadap strategi OpenAI?
A
Kompetisi dengan DeepSeek membuat OpenAI merasa perlu untuk mempercepat siklus rilis produk agar tetap bersaing di pasar.
Q
Mengapa Brundage menganggap pendekatan OpenAI saat ini berbahaya?
A
Brundage menganggap bahwa pendekatan OpenAI saat ini dapat menciptakan beban pembuktian yang berbahaya, di mana kekhawatiran harus didukung oleh bukti yang sangat kuat.

Artikel Serupa

OpenAI to Release Highly Permissive Open Language Model This SummerTechCrunch
Teknologi
3 bulan lalu
191 dibaca

OpenAI to Release Highly Permissive Open Language Model This Summer

OpenAI to Launch Highly Permissive Open Language Model This SummerTechCrunch
Teknologi
3 bulan lalu
146 dibaca

OpenAI to Launch Highly Permissive Open Language Model This Summer

Kertas 145 halaman DeepMind tentang keamanan AGI mungkin tidak meyakinkan para skeptis.TechCrunch
Teknologi
4 bulan lalu
141 dibaca

Kertas 145 halaman DeepMind tentang keamanan AGI mungkin tidak meyakinkan para skeptis.

Saatnya mulai mempersiapkan untuk AGI, kata Google.Axios
Teknologi
4 bulan lalu
137 dibaca

Saatnya mulai mempersiapkan untuk AGI, kata Google.

OpenAI berencana untuk merilis model bahasa AI 'terbuka' baru dalam beberapa bulan mendatang.TechCrunch
Teknologi
4 bulan lalu
107 dibaca

OpenAI berencana untuk merilis model bahasa AI 'terbuka' baru dalam beberapa bulan mendatang.

OpenAI berusaha untuk 'menghapus sensor' ChatGPT.TechCrunch
Teknologi
5 bulan lalu
226 dibaca

OpenAI berusaha untuk 'menghapus sensor' ChatGPT.