Courtesy of TechCrunch
Dengan semakin populernya model bahasa besar (LLMs) seperti GPT dari OpenAI, banyak konten yang dihasilkan oleh AI mulai memenuhi internet, termasuk Wikipedia. Para editor Wikipedia kini tidak hanya harus memperbaiki kesalahan yang dibuat oleh manusia, tetapi juga harus menghabiskan lebih banyak waktu untuk menghapus konten yang dihasilkan oleh AI. Ilyas Lebleu, seorang editor Wikipedia, terlibat dalam proyek bernama "WikiProject AI Cleanup" yang bertujuan untuk menemukan cara terbaik dalam mendeteksi kontribusi yang dibuat oleh mesin.
Salah satu masalah besar dengan konten yang dihasilkan oleh AI adalah seringkali informasi tersebut tidak memiliki sumber yang tepat. LLMs dapat dengan cepat menghasilkan teks yang terdengar meyakinkan, sehingga ada yang mencoba mengunggah entri palsu untuk menipu para ahli manusia di Wikipedia. Hal ini membuat pekerjaan editor menjadi semakin sulit dan penting untuk menjaga kualitas informasi di ensiklopedia tersebut.