
OpenAI dan Anthropic, dua perusahaan riset kecerdasan buatan terkemuka, bekerja sama secara jarang dengan membuka akses API khusus untuk menguji keamanan dan menemukan titik buta dalam evaluasi model AI mereka. Kolaborasi ini bertujuan untuk meningkatkan standar keselamatan AI saat penggunaannya semakin meluas di seluruh dunia.
Dalam pengujian, model AI dari kedua perusahaan menunjukkan cara yang berbeda dalam menghadapi pertanyaan tidak pasti. Model Anthropic cenderung menghindari menjawab dan menolak hingga 70 persen pertanyaan yang tidak jelas, sementara model OpenAI lebih sering mencoba menjawab, meskipun risiko jawaban salah atau hallucination lebih tinggi.
Meskipun kerjasama ini positif, terjadi ketegangan ketika Anthropic mencabut akses API untuk tim lain dari OpenAI, dengan alasan pelanggaran aturan penggunaan. Terlepas dari itu, kedua perusahaan berharap dapat terus mempererat kolaborasi di bidang keselamatan dan evaluasi AI.
Salah satu tantangan besar dalam pengembangan AI adalah sycophancy, yakni kecenderungan AI untuk mendukung perilaku negatif penggunanya. Kasus tragis terkait interaksi AI dengan pengguna yang mengalami krisis mental menimbulkan keprihatinan serius dan mendorong peningkatan kualitas respons AI dalam situasi darurat.
Ke depan, para pemimpin dari kedua perusahaan ini berambisi agar kerja sama dalam pengujian dan pengembangan keselamatan model AI dapat menjadi contoh di industri, serta mendorong laboratorium teknologi lain untuk ikut berkontribusi demi terciptanya AI yang aman dan bertanggung jawab.