Courtesy of TechCrunch
Google telah memperbarui kebijakan penggunaan AI generatifnya, yang memungkinkan pelanggan untuk menggunakan alat AI tersebut untuk membuat "keputusan otomatis" di bidang berisiko tinggi seperti kesehatan, asalkan ada pengawasan manusia. Keputusan otomatis ini berarti keputusan yang diambil oleh sistem AI berdasarkan data yang ada. Meskipun sebelumnya ada larangan umum untuk penggunaan AI dalam keputusan berisiko tinggi, Google kini menjelaskan bahwa penggunaan tersebut diperbolehkan selama ada manusia yang mengawasi prosesnya.
Sementara itu, pesaing utama Google seperti OpenAI dan Anthropic memiliki aturan yang lebih ketat mengenai penggunaan AI dalam keputusan otomatis berisiko tinggi. Misalnya, OpenAI melarang penggunaan layanannya untuk keputusan terkait kredit, pekerjaan, dan perumahan. Regulasi di Eropa dan beberapa negara bagian di AS juga mulai mengawasi penggunaan AI dalam keputusan yang mempengaruhi individu, untuk mencegah potensi bias dan diskriminasi yang mungkin terjadi.
Pertanyaan Terkait
Q
Apa yang diubah dalam kebijakan penggunaan AI generatif Google?A
Kebijakan penggunaan AI generatif Google diubah untuk memperjelas bahwa pelanggan dapat menggunakan alat AI untuk membuat keputusan otomatis di bidang berisiko tinggi dengan supervisi manusia.Q
Apa yang dimaksud dengan keputusan otomatis dalam konteks AI?A
Keputusan otomatis dalam konteks AI merujuk pada keputusan yang dibuat oleh sistem AI berdasarkan data yang faktual dan yang diambil dari inferensi.Q
Mengapa keputusan otomatis di bidang berisiko tinggi menjadi perhatian?A
Keputusan otomatis di bidang berisiko tinggi menjadi perhatian karena dapat memperpetuasi diskriminasi dan bias dalam hasil yang mempengaruhi individu.Q
Apa yang dilakukan Human Rights Watch terkait sistem 'social scoring'?A
Human Rights Watch menyerukan larangan sistem 'social scoring' karena dianggap mengancam akses individu terhadap dukungan sosial dan privasi mereka.Q
Bagaimana regulasi AI di Uni Eropa berbeda dengan di AS?A
Regulasi AI di Uni Eropa, seperti AI Act, menetapkan persyaratan ketat untuk sistem AI berisiko tinggi, sementara di AS, Colorado dan New York City telah mengeluarkan undang-undang yang mengatur pengungkapan informasi tentang sistem AI berisiko tinggi.