Courtesy of TechCrunch
Anthropic Ubah Kebijakan Data: Pilih Sama atau Data Percakapan Dipakai AI
Memberitahukan perubahan kebijakan privasi Anthropic yang signifikan terkait penggunaan data percakapan pengguna untuk pelatihan AI, serta menyoroti dampaknya terhadap privasi dan kesadaran pengguna.
29 Agt 2025, 03.43 WIB
289 dibaca
Share
Ikhtisar 15 Detik
- Pengguna harus lebih waspada terhadap perubahan kebijakan privasi yang mungkin tidak jelas.
- Perusahaan AI menghadapi tekanan untuk meningkatkan data pelatihan sambil tetap menjaga privasi pengguna.
- Perubahan kebijakan dapat berdampak signifikan pada cara pengguna berinteraksi dengan teknologi AI.
Anthropic, perusahaan pengembang model AI Claude, mengumumkan perubahan kebijakan penting terkait data pengguna. Sekarang, semua pengguna harus memilih sebelum tanggal 28 September apakah percakapan mereka boleh digunakan untuk melatih model AI. Jika tidak memilih keluar, data akan disimpan hingga lima tahun.
Sebelumnya, Anthropic menghapus data percakapan dalam 30 hari kecuali ada alasan hukum atau pelanggaran kebijakan, yang bisa memperpanjang penyimpanan hingga dua tahun. Kebijakan baru ini hanya berlaku untuk pengguna konsumen Claude Free, Pro, dan Max, sedangkan pelanggan bisnis tidak terpengaruh.
Anthropic mengatakan perubahan ini bertujuan agar pengguna dapat membantu meningkatkan kualitas dan keamanan AI, seperti mengurangi salah deteksi konten berbahaya dan meningkatkan kemampuan analisis dan pemrograman. Namun, motivasi utama kemungkinan adalah kebutuhan perusahaan akan data berkualitas tinggi untuk bersaing.
Desain persetujuan kebijakan ini dianggap membingungkan karena tombol 'Accept' besar dan toggle untuk menolak penggunaan data tersembunyi dan sudah aktif secara default. Hal ini menimbulkan kekhawatiran bahwa pengguna mungkin mengiyakan tanpa benar-benar memahami konsekuensinya.
Situasi ini terjadi di tengah tekanan hukum dan pengawasan dari pemerintah AS, khususnya Federal Trade Commission, yang memperingatkan perusahaan AI untuk tidak mengubah kebijakan secara sembunyi-sembunyi atau menggunakan bahasa yang membingungkan karena risiko pelanggaran privasi dan kemungkinan tindakan hukum.
Referensi:
[1] https://techcrunch.com/2025/08/28/anthropic-users-face-a-new-choice-opt-out-or-share-your-data-for-ai-training/
[1] https://techcrunch.com/2025/08/28/anthropic-users-face-a-new-choice-opt-out-or-share-your-data-for-ai-training/
Analisis Kami
"Perubahan kebijakan ini menunjukkan bagaimana perusahaan AI mengutamakan kebutuhan data atas transparansi terhadap pengguna. Desain persetujuan yang membingungkan merupakan tanda bahwa perusahaan ingin menghindari penolakan data agar bisa tetap bersaing di pasar yang semakin agresif."
Analisis Ahli
Brad Lightcap
"Perintah pengadilan terkait retensi data konsumen sangat membebani dan bertentangan dengan janji privasi kami kepada pengguna."
Prediksi Kami
Pengguna akan semakin sadar akan pentingnya kontrol data pribadi, dan kemungkinan regulasi terkait praktik retensi dan penggunaan data AI akan semakin ketat untuk melindungi privasi konsumen.
Pertanyaan Terkait
Q
Apa perubahan kebijakan baru yang diterapkan oleh Anthropic?A
Anthropic sekarang ingin menggunakan percakapan pengguna untuk melatih model AI dan memperpanjang retensi data menjadi lima tahun bagi mereka yang tidak memilih keluar.Q
Mengapa Anthropic memutuskan untuk menggunakan data pengguna untuk pelatihan model?A
Anthropic membutuhkan data untuk meningkatkan akurasi model AI dan bersaing dengan perusahaan lain seperti OpenAI dan Google.Q
Bagaimana perubahan kebijakan ini mempengaruhi pengguna Claude?A
Perubahan kebijakan ini berlaku untuk pengguna produk konsumen seperti Claude Free, Pro, dan Max, tetapi tidak untuk pelanggan bisnis.Q
Apa yang diharapkan Anthropic dari pengguna yang tidak memilih keluar?A
Anthropic berharap pengguna yang tidak memilih keluar akan membantu mereka meningkatkan keamanan model dan kemampuan AI di masa depan.Q
Apa saja entitas utama yang terlibat dalam konteks kebijakan ini?A
Entitas utama yang terlibat dalam konteks kebijakan ini adalah Anthropic, OpenAI, dan Federal Trade Commission.