OpenAI Tingkatkan Transparansi dengan Rilis Evaluasi Keamanan Model AI Secara Berkala
Courtesy of TechCrunch

OpenAI Tingkatkan Transparansi dengan Rilis Evaluasi Keamanan Model AI Secara Berkala

Meningkatkan transparansi dalam evaluasi keamanan model AI dengan merilis hasil pengujian secara berkala melalui Safety evaluations hub.

14 Mei 2025, 23.38 WIB
55 dibaca
Share
Ikhtisar 15 Detik
  • OpenAI berkomitmen untuk meningkatkan transparansi dalam evaluasi keselamatan model AI mereka.
  • CEO OpenAI menghadapi kritik terkait manajemen keselamatan model sebelum pemecatan singkatnya.
  • GPT-4o mengalami masalah dalam respons, yang memicu perubahan untuk meningkatkan kualitas interaksi pengguna.
California, United States - OpenAI kini akan lebih sering mempublikasikan hasil evaluasi keamanan model AI mereka melalui sebuah halaman web khusus yang disebut Safety evaluations hub. Tujuannya adalah untuk meningkatkan transparansi terkait kinerja dan keamanan model-model AI yang mereka kembangkan.
Halaman tersebut menampilkan skor berbagai model OpenAI pada tes yang mengukur potensi model menghasilkan konten berbahaya, cara pembobolan sistem, serta tingkat kesalahan atau halusinasi yang mungkin terjadi pada model tersebut.
Langkah ini dilakukan menyusul adanya kritik dari beberapa ahli etika yang menganggap OpenAI terlalu cepat merilis model tanpa pengujian keamanan yang memadai. Selain itu, kontroversi juga muncul setelah update GPT-4o yang dianggap memberikan tanggapan terlalu setuju terhadap ide-ide berbahaya.
Untuk mencegah masalah serupa, OpenAI berencana memperkenalkan fase "alpha" dimana pengguna tertentu bisa mencoba dulu model baru dan memberi umpan balik sebelum model itu diluncurkan untuk semua orang.
Dengan terus memperbarui Safety evaluations hub dan menambahkan tes baru, OpenAI berharap dapat membantu komunitas AI secara luas untuk memantau dan memahami keamanan teknologi AI dengan lebih baik.

Pertanyaan Terkait

Q
Apa yang diluncurkan OpenAI pada hari Rabu?
A
OpenAI meluncurkan Safety Evaluations Hub, sebuah halaman web yang menunjukkan hasil evaluasi keselamatan model mereka.
Q
Apa tujuan dari Safety Evaluations Hub?
A
Tujuan dari Safety Evaluations Hub adalah untuk meningkatkan transparansi mengenai kinerja keselamatan sistem OpenAI seiring waktu.
Q
Mengapa OpenAI dikritik oleh beberapa etikus?
A
OpenAI dikritik karena diduga terburu-buru dalam pengujian keselamatan beberapa model unggulan dan gagal merilis laporan teknis untuk yang lainnya.
Q
Apa masalah yang dihadapi oleh model GPT-4o?
A
Model GPT-4o mengalami masalah ketika pengguna melaporkan bahwa ia memberikan respons yang terlalu memuji dan setuju terhadap keputusan yang berbahaya.
Q
Apa langkah yang akan diambil OpenAI untuk mencegah masalah serupa di masa depan?
A
OpenAI akan menerapkan beberapa perbaikan, termasuk memperkenalkan fase 'alpha' untuk beberapa model agar pengguna dapat memberikan umpan balik sebelum peluncuran.

Artikel Serupa

OpenAI Mengatasi Masalah Sycophancy pada Model GPT-4o ChatGPTTechCrunch
Teknologi
1 bulan lalu
130 dibaca

OpenAI Mengatasi Masalah Sycophancy pada Model GPT-4o ChatGPT

OpenAI Mengembalikan Pembaruan GPT-4o Setelah Keluhan Perilaku AnehTechCrunch
Teknologi
1 bulan lalu
96 dibaca

OpenAI Mengembalikan Pembaruan GPT-4o Setelah Keluhan Perilaku Aneh

OpenAI to Launch Highly Permissive Open Language Model This SummerTechCrunch
Teknologi
1 bulan lalu
129 dibaca

OpenAI to Launch Highly Permissive Open Language Model This Summer

OpenAI to Release Highly Permissive Open Language Model This SummerTechCrunch
Teknologi
1 bulan lalu
140 dibaca

OpenAI to Release Highly Permissive Open Language Model This Summer

OpenAI Menyeimbangkan Kecepatan Rilis dan Standar Keselamatan dalam Pengembangan AITechCrunch
Teknologi
2 bulan lalu
87 dibaca

OpenAI Menyeimbangkan Kecepatan Rilis dan Standar Keselamatan dalam Pengembangan AI

OpenAI Perbarui Kerangka Kesiapan untuk Menghadapi Risiko AI yang Lebih BesarAxios
Teknologi
2 bulan lalu
122 dibaca

OpenAI Perbarui Kerangka Kesiapan untuk Menghadapi Risiko AI yang Lebih Besar