Anthropic Ubah Kebijakan Data: Pilih Sama atau Data Percakapan Dipakai AI
Courtesy of TechCrunch

Anthropic Ubah Kebijakan Data: Pilih Sama atau Data Percakapan Dipakai AI

Memberitahukan perubahan kebijakan privasi Anthropic yang signifikan terkait penggunaan data percakapan pengguna untuk pelatihan AI, serta menyoroti dampaknya terhadap privasi dan kesadaran pengguna.

29 Agt 2025, 03.43 WIB
289 dibaca
Share
Ikhtisar 15 Detik
  • Pengguna harus lebih waspada terhadap perubahan kebijakan privasi yang mungkin tidak jelas.
  • Perusahaan AI menghadapi tekanan untuk meningkatkan data pelatihan sambil tetap menjaga privasi pengguna.
  • Perubahan kebijakan dapat berdampak signifikan pada cara pengguna berinteraksi dengan teknologi AI.
Anthropic, perusahaan pengembang model AI Claude, mengumumkan perubahan kebijakan penting terkait data pengguna. Sekarang, semua pengguna harus memilih sebelum tanggal 28 September apakah percakapan mereka boleh digunakan untuk melatih model AI. Jika tidak memilih keluar, data akan disimpan hingga lima tahun.
Sebelumnya, Anthropic menghapus data percakapan dalam 30 hari kecuali ada alasan hukum atau pelanggaran kebijakan, yang bisa memperpanjang penyimpanan hingga dua tahun. Kebijakan baru ini hanya berlaku untuk pengguna konsumen Claude Free, Pro, dan Max, sedangkan pelanggan bisnis tidak terpengaruh.
Anthropic mengatakan perubahan ini bertujuan agar pengguna dapat membantu meningkatkan kualitas dan keamanan AI, seperti mengurangi salah deteksi konten berbahaya dan meningkatkan kemampuan analisis dan pemrograman. Namun, motivasi utama kemungkinan adalah kebutuhan perusahaan akan data berkualitas tinggi untuk bersaing.
Desain persetujuan kebijakan ini dianggap membingungkan karena tombol 'Accept' besar dan toggle untuk menolak penggunaan data tersembunyi dan sudah aktif secara default. Hal ini menimbulkan kekhawatiran bahwa pengguna mungkin mengiyakan tanpa benar-benar memahami konsekuensinya.
Situasi ini terjadi di tengah tekanan hukum dan pengawasan dari pemerintah AS, khususnya Federal Trade Commission, yang memperingatkan perusahaan AI untuk tidak mengubah kebijakan secara sembunyi-sembunyi atau menggunakan bahasa yang membingungkan karena risiko pelanggaran privasi dan kemungkinan tindakan hukum.
Referensi:
[1] https://techcrunch.com/2025/08/28/anthropic-users-face-a-new-choice-opt-out-or-share-your-data-for-ai-training/

Analisis Kami

"Perubahan kebijakan ini menunjukkan bagaimana perusahaan AI mengutamakan kebutuhan data atas transparansi terhadap pengguna. Desain persetujuan yang membingungkan merupakan tanda bahwa perusahaan ingin menghindari penolakan data agar bisa tetap bersaing di pasar yang semakin agresif."

Analisis Ahli

Brad Lightcap
"Perintah pengadilan terkait retensi data konsumen sangat membebani dan bertentangan dengan janji privasi kami kepada pengguna."

Prediksi Kami

Pengguna akan semakin sadar akan pentingnya kontrol data pribadi, dan kemungkinan regulasi terkait praktik retensi dan penggunaan data AI akan semakin ketat untuk melindungi privasi konsumen.

Pertanyaan Terkait

Q
Apa perubahan kebijakan baru yang diterapkan oleh Anthropic?
A
Anthropic sekarang ingin menggunakan percakapan pengguna untuk melatih model AI dan memperpanjang retensi data menjadi lima tahun bagi mereka yang tidak memilih keluar.
Q
Mengapa Anthropic memutuskan untuk menggunakan data pengguna untuk pelatihan model?
A
Anthropic membutuhkan data untuk meningkatkan akurasi model AI dan bersaing dengan perusahaan lain seperti OpenAI dan Google.
Q
Bagaimana perubahan kebijakan ini mempengaruhi pengguna Claude?
A
Perubahan kebijakan ini berlaku untuk pengguna produk konsumen seperti Claude Free, Pro, dan Max, tetapi tidak untuk pelanggan bisnis.
Q
Apa yang diharapkan Anthropic dari pengguna yang tidak memilih keluar?
A
Anthropic berharap pengguna yang tidak memilih keluar akan membantu mereka meningkatkan keamanan model dan kemampuan AI di masa depan.
Q
Apa saja entitas utama yang terlibat dalam konteks kebijakan ini?
A
Entitas utama yang terlibat dalam konteks kebijakan ini adalah Anthropic, OpenAI, dan Federal Trade Commission.

Artikel Serupa

OpenAI dan Anthropic Bekerja Sama untuk Tingkatkan Keamanan AI di Tengah Persaingan KetatYahooFinance
Teknologi
12 hari lalu
287 dibaca

OpenAI dan Anthropic Bekerja Sama untuk Tingkatkan Keamanan AI di Tengah Persaingan Ketat

Kekhawatiran Privasi ChatGPT untuk Percakapan Pribadi dan TerapiTechCrunch
Teknologi
1 bulan lalu
149 dibaca

Kekhawatiran Privasi ChatGPT untuk Percakapan Pribadi dan Terapi

OpenAI Ubah Kebijakan ChatGPT untuk Lebih Bebas dan Netral dalam Jawaban KontroversialYahooFinance
Teknologi
6 bulan lalu
218 dibaca

OpenAI Ubah Kebijakan ChatGPT untuk Lebih Bebas dan Netral dalam Jawaban Kontroversial

OpenAI Perbarui Kebijakan AI Untuk Jawab Semua Topik dengan Bebas dan NetralTechCrunch
Teknologi
6 bulan lalu
99 dibaca

OpenAI Perbarui Kebijakan AI Untuk Jawab Semua Topik dengan Bebas dan Netral

Waspada Fitur AI Gemini di Gmail: Risiko Kebocoran Data dan Sulit DimatikanForbes
Teknologi
7 bulan lalu
124 dibaca

Waspada Fitur AI Gemini di Gmail: Risiko Kebocoran Data dan Sulit Dimatikan

Bahaya Kebijakan Privasi DeepSeek-r1: Data Pengguna Terancam dan Integritas AI DipertanyakanForbes
Teknologi
7 bulan lalu
144 dibaca

Bahaya Kebijakan Privasi DeepSeek-r1: Data Pengguna Terancam dan Integritas AI Dipertanyakan