Anthropic Wajibkan Pengguna Pilih Data untuk Latih AI, Apa Artinya?
Courtesy of TechCrunch

Anthropic Wajibkan Pengguna Pilih Data untuk Latih AI, Apa Artinya?

Memberikan informasi tentang perubahan kebijakan data pengguna Anthropic dan dampaknya terhadap privasi, serta mengupas alasan di balik perubahan tersebut agar pengguna lebih sadar akan konsekuensi dari pilihan mereka.

29 Agt 2025, 03.43 WIB
279 dibaca
Share
Ikhtisar 15 Detik
  • Anthropic mulai menggunakan data percakapan pengguna untuk pelatihan AI, yang berdampak pada privasi pengguna.
  • Pengguna harus lebih waspada terhadap perubahan kebijakan yang bisa memengaruhi data pribadi mereka.
  • FTC mengawasi praktik perusahaan AI terkait transparansi kebijakan dan privasi penggunanya.
Amerika Serikat - Anthropic, perusahaan AI di Amerika Serikat, mengupdate kebijakan mereka tentang penggunaan data pengguna dengan meminta semua pengguna Claude untuk memutuskan sebelum 28 September apakah percakapan mereka boleh digunakan untuk melatih model AI. Sebelumnya, data obrolan pengguna secara otomatis dihapus dalam 30 hari dan tidak dipakai untuk pelatihan model, tapi sekarang data dapat disimpan hingga lima tahun bila pengguna tidak memilih untuk keluar.
Perubahan ini hanya berlaku untuk konsumen umum seperti pengguna Claude Free, Pro, Max, dan Claude Code. Pengguna bisnis seperti yang memakai Claude Gov, Work, Education, atau API tidak terpengaruh. Hal ini mirip dengan kebijakan dari kompetitor seperti OpenAI yang memisahkan perlakuan data pengguna individu dan perusahaan demi menjaga privasi bisnis.
Anthropic menyatakan bahwa tujuan perubahan ini adalah agar pengguna bisa berkontribusi dalam meningkatkan keselamatan model AI dan membuat kemampuan AI seperti coding dan analisis lebih baik. Namun, kenyataan bahwa perusahaan membutuhkan data besar agar bisa bersaing dengan pemain besar lain juga menjadi alasan penting di balik kebijakan baru ini.
Pengguna lama mendapat pemberitahuan dengan tombol 'Accept' yang besar dan toggle kecil yang sudah aktif secara default untuk memberi izin pelatihan data, sehingga berpotensi membuat banyak pengguna setuju tanpa sadar. Ini menjadi perhatian banyak pakar privasi karena desain persetujuan seperti ini bisa membuat konsen yang diberikan tidak benar-benar sadar atau 'meaningful'.
Perubahan kebijakan ini terjadi di tengah meningkatnya tekanan regulasi di AS, dengan FTC yang memperingatkan perusahaan teknologi agar tidak menyembunyikan perubahan terkait privasi di balik bahasa hukum yang rumit atau tulisan kecil. Masa depan akan menguji bagaimana Anthropic dan perusahaan AI lain menjaga keseimbangan antara inovasi teknologi dan perlindungan privasi pengguna.
Referensi:
[1] https://techcrunch.com/2025/08/28/anthropic-users-face-a-new-choice-opt-out-or-share-your-data-for-ai-training/

Analisis Kami

"Keputusan Anthropic untuk mengubah kebijakan data pengguna mencerminkan realitas industri AI yang mengutamakan akses data luas untuk inovasi dan pengembangan produk. Namun, praktik desain persetujuan yang mengaburkan informasi bisa merusak kepercayaan pengguna, yang justru menjadi aset utama perusahaan teknologi besar."

Analisis Ahli

Helen Nissenbaum
"Perubahan kebijakan yang tidak transparan ini menggarisbawahi pentingnya 'meaningful consent' dalam teknologi AI agar privasi pengguna tidak terusik tanpa mereka sadari."
Bruce Schneier
"Industri AI harus seimbang antara kebutuhan data dan hak privasi; desain persetujuan yang memanipulasi pengguna dapat memperburuk reputasi perusahaan dan memicu regulasi lebih ketat."

Prediksi Kami

Di masa depan, kemungkinan besar perusahaan AI akan semakin memperketat pengumpulan dan penggunaan data pengguna demi meningkatkan kemampuan model mereka, sekaligus menghadapi tekanan hukum dan regulasi yang menuntut transparansi dan perlindungan privasi lebih besar.

Pertanyaan Terkait

Q
Apa perubahan kebijakan data pengguna yang dilakukan oleh Anthropic?
A
Anthropic mengubah kebijakan untuk mulai menggunakan data percakapan pengguna untuk pelatihan model AI dan memperpanjang masa penyimpanan data hingga lima tahun.
Q
Mengapa Anthropic ingin menggunakan data percakapan pengguna untuk pelatihan model?
A
Anthropic ingin menggunakan data percakapan untuk meningkatkan keamanan model dan akurasi sistem deteksi konten berbahaya.
Q
Bagaimana pengguna dapat memilih untuk tidak menggunakan data mereka?
A
Pengguna dapat memilih untuk tidak menggunakan data mereka dengan menyesuaikan pengaturan yang diberikan saat persetujuan kebijakan baru.
Q
Apa dampak dari kebijakan baru ini terhadap pengguna yang ada?
A
Pengguna yang ada akan dihadapkan pada pop-up persetujuan yang mungkin tidak jelas, dan banyak yang mungkin tidak menyadari bahwa mereka setuju untuk membagikan data.
Q
Apa langkah yang diambil oleh FTC terkait kebijakan privasi perusahaan AI?
A
FTC memperingatkan perusahaan AI agar tidak mengubah kebijakan secara tidak transparan dan berisiko menghadapi tindakan penegakan hukum.

Artikel Serupa

OpenAI dan Anthropic Bekerja Sama untuk Tingkatkan Keamanan AI di Tengah Persaingan KetatYahooFinance
Teknologi
12 hari lalu
287 dibaca

OpenAI dan Anthropic Bekerja Sama untuk Tingkatkan Keamanan AI di Tengah Persaingan Ketat

Kekhawatiran Privasi ChatGPT untuk Percakapan Pribadi dan TerapiTechCrunch
Teknologi
1 bulan lalu
149 dibaca

Kekhawatiran Privasi ChatGPT untuk Percakapan Pribadi dan Terapi

OpenAI Ubah Kebijakan ChatGPT untuk Lebih Bebas dan Netral dalam Jawaban KontroversialYahooFinance
Teknologi
6 bulan lalu
218 dibaca

OpenAI Ubah Kebijakan ChatGPT untuk Lebih Bebas dan Netral dalam Jawaban Kontroversial

OpenAI Perbarui Kebijakan AI Untuk Jawab Semua Topik dengan Bebas dan NetralTechCrunch
Teknologi
6 bulan lalu
99 dibaca

OpenAI Perbarui Kebijakan AI Untuk Jawab Semua Topik dengan Bebas dan Netral

Waspada Fitur AI Gemini di Gmail: Risiko Kebocoran Data dan Sulit DimatikanForbes
Teknologi
7 bulan lalu
124 dibaca

Waspada Fitur AI Gemini di Gmail: Risiko Kebocoran Data dan Sulit Dimatikan

Bahaya Kebijakan Privasi DeepSeek-r1: Data Pengguna Terancam dan Integritas AI DipertanyakanForbes
Teknologi
7 bulan lalu
144 dibaca

Bahaya Kebijakan Privasi DeepSeek-r1: Data Pengguna Terancam dan Integritas AI Dipertanyakan