Courtesy of SCMP
DeepSeek Ungkap Cara Filter Data Agar AI Minim Halusinasi dan Konten Negatif
Artikel ini bertujuan menjelaskan bagaimana startup AI DeepSeek mengelola dan menyaring data pelatihan untuk mengurangi risiko halusinasi dan penyalahgunaan, serta mengingatkan pembaca akan keterbatasan teknologi AI saat ini agar penggunaannya lebih bijak.
03 Sep 2025, 17.00 WIB
67 dibaca
Share
Ikhtisar 15 Detik
- DeepSeek berkomitmen untuk keamanan AI dan transparansi dalam pengumpulan data.
- Perusahaan menggunakan metode pemfilteran untuk mengurangi konten yang tidak pantas dalam data pelatihan.
- Tantangan 'hallucination' dalam AI masih menjadi perhatian utama, dan pengguna disarankan untuk tetap waspada.
Hangzhou, China - DeepSeek merupakan startup kecerdasan buatan asal Hangzhou, China, yang baru-baru ini mengungkap bagaimana mereka menyaring data yang digunakan untuk melatih model AI-nya. Mereka menggunakan data yang terutama berasal dari informasi yang tersedia secara publik dan dari pihak ketiga yang mempunyai izin resmi. Hal ini menunjukkan komitmen mereka untuk tidak mengambil data pribadi secara tidak sah.
Untuk menjaga kualitas dan keamanan AI, DeepSeek memasang filter otomatis yang menghapus konten berisi ujaran kebencian, pornografi, kekerasan, spam, dan konten yang mungkin melanggar hak. Proses ini dilakukan secara berlapis agar model AI mereka tidak mengandung konten yang berbahaya atau merugikan pengguna.
Selain filter otomatis, DeepSeek menggunakan algoritma khusus dan juga tinjauan manusia untuk memeriksa adanya bias statistik yang bisa muncul dari data besar tersebut. Langkah ini penting untuk memastikan model tidak hanya akurat tapi juga adil dan sesuai nilai-nilai yang diharapkan penggunanya.
Meski begitu, DeepSeek mengakui bahwa fenomena halusinasi, yaitu kondisi dimana AI menghasilkan jawaban yang salah atau menyesatkan, masih menjadi masalah yang belum dapat sepenuhnya diatasi. Mereka menyarankan pengguna untuk selalu berhati-hati dan tidak menggantikan saran profesional dengan hasil AI.
Kejadian ini semakin penting di tengah pengawasan yang semakin ketat dari pemerintah China terhadap industri AI. Kampanye transparansi seperti yang dilakukan DeepSeek diharapkan bisa membantu pengguna lebih memahami risiko dan cara memanfaatkan teknologi AI dengan bijak.
Referensi:
[1] https://www.scmp.com/tech/tech-trends/article/3324149/deepseek-sheds-light-data-collection-ai-training-and-warns-hallucination-risks?module=top_story&pgtype=section
[1] https://www.scmp.com/tech/tech-trends/article/3324149/deepseek-sheds-light-data-collection-ai-training-and-warns-hallucination-risks?module=top_story&pgtype=section
Analisis Kami
"DeepSeek menunjukkan langkah yang patut diapresiasi dalam mengatasi masalah umum pada AI dengan menerapkan filter konten dan pengawasan manusia. Namun, pengakuan mereka bahwa halusinasi tidak bisa dihindari menggarisbawahi bahwa teknologi ini masih jauh dari sempurna dan harus digunakan dengan sikap kritis oleh penggunanya."
Analisis Ahli
Yoshua Bengio
"Penting bagi pengembang AI untuk transparan dalam praktik pengumpulan data dan penanganan bias, seperti yang dilakukan DeepSeek. Halusinasi dalam AI memang menjadi tantangan besar yang perlu kolaborasi riset untuk diminimalisir."
Fei-Fei Li
"Pendekatan yang menggabungkan filter otomatis dan review manusia adalah langkah positif, tapi edukasi pengguna juga sangat penting agar tidak mengandalkan sepenuhnya pada hasil AI yang terkadang keliru."
Prediksi Kami
Dengan meningkatnya pengawasan dan teknologi penyaringan yang lebih ketat, AI masa depan kemungkinan akan memiliki tingkat halusinasi yang lebih rendah namun tetap memerlukan regulasi dan edukasi penggunaan yang hati-hati.
Pertanyaan Terkait
Q
Apa yang diungkapkan oleh DeepSeek mengenai pengumpulan data untuk melatih model AI mereka?A
DeepSeek menyatakan bahwa data untuk melatih model AI mereka sebagian besar dikumpulkan dari informasi yang tersedia secara publik dan data pihak ketiga yang telah disetujui.Q
Siapa pendiri DeepSeek dan apa latar belakangnya?A
Pendiri DeepSeek adalah Liang Wenfeng, seorang ilmuwan komputer yang memimpin upaya pengembangan teknologi AI di perusahaan tersebut.Q
Apa yang dimaksud dengan 'hallucination' dalam konteks AI?A
'Hallucination' dalam konteks AI merujuk pada fenomena di mana model AI menghasilkan informasi yang salah atau menyesatkan.Q
Apa langkah yang diambil DeepSeek untuk menjaga keamanan AI?A
DeepSeek mengambil langkah-langkah seperti pemfilteran otomatis untuk menghapus konten yang berbahaya dan peninjauan manusia untuk mengidentifikasi bias dalam dataset.Q
Apa tantangan yang dihadapi oleh teknologi AI saat ini menurut DeepSeek?A
DeepSeek mencatat bahwa meskipun mereka berusaha mengurangi 'hallucination', masalah ini masih merupakan tantangan yang tidak dapat dihindari dalam tahap perkembangan teknologi AI saat ini.