Perusahaan AI Terbesar Kini Terjun ke Militer, Bahayakah untuk Dunia?
Courtesy of TheVerge

Perusahaan AI Terbesar Kini Terjun ke Militer, Bahayakah untuk Dunia?

Menjelaskan perubahan signifikan dalam industri AI yang kini mendukung penggunaan teknologi AI untuk aplikasi militer, mengungkap motivasi di balik perubahan tersebut, serta memperingatkan risiko dan konsekuensi berbahaya dari penggunaan AI dalam konteks pertahanan dan keamanan.

25 Sep 2025, 21.00 WIB
70 dibaca
Share
Ikhtisar 15 Detik
  • Perusahaan AI besar seperti OpenAI dan Anthropic beralih ke aplikasi militer, menandakan perubahan besar dalam fokus industri.
  • Ada kekhawatiran tentang keamanan dan penggunaan etis AI dalam konteks senjata otonom.
  • Kolaborasi antara perusahaan teknologi dan pemerintah menunjukkan tantangan baru terkait regulasi dan tanggung jawab di bidang AI.
Amerika Serikat - Industri kecerdasan buatan (AI) yang dahulu sangat menekankan pada keselamatan dan etika kini mulai berubah arah dengan mengembangkan teknologi untuk kepentingan militer. Perubahan ini diawali oleh pelonggaran aturan penggunaan AI oleh perusahaan besar seperti OpenAI, yang menghapus larangan pemanfaatan AI untuk militer dalam ketentuan mereka yang terbaru.
OpenAI sendiri telah menandatangani kontrak besar dengan Departemen Pertahanan Amerika Serikat dan perusahaan pembuat senjata otonom Anduril. Selain itu, Anthropic dan Palantir, dua pemain utama lainnya di dunia AI, juga berkolaborasi untuk memasarkan AI bagi kepentingan pertahanan dan intelijen dengan nilai kontrak yang mencapai ratusan juta dolar.
Selain itu, perusahaan teknologi raksasa lainnya seperti Amazon, Google, dan Microsoft juga mulai menawarkan produk AI mereka untuk keperluan militer dan intelijen. Hal ini terjadi meskipun ada protes keras dari karyawan serta aktivis yang menentang integrasi teknologi AI dalam bidang militer.
Heidy Khlaaf, chief AI scientist di AI Now Institute dan pakar keselamatan AI, memperingatkan bahwa perusahaan-perusahaan ini tampak kurang waspada dalam melakukan penerapan AI generatif di situasi berisiko tinggi. Mereka dinilai terlalu berani dan kurang mempertimbangkan konsekuensi etika serta keselamatan jangka panjang.
Selain risiko terkait senjata otonom, muncul kekhawatiran bahwa teknologi AI bisa disalahgunakan oleh aktor jahat untuk mengembangkan senjata kimia, biologi, radiologis, dan nuklir, yang akan membawa ancaman besar terhadap keamanan global di masa depan.
Referensi:
[1] https://theverge.com/podcast/784865/ai-safety-military-defense-openai-anthropic-ethics

Analisis Ahli

Heidy Khlaaf
"Perusahaan AI harus berhati-hati dan bertanggung jawab dalam mengembangkan teknologi mereka, terutama yang digunakan dalam senjata otonom, karena konsekuensi keselamatan dan etika yang sangat berat."
Nilay Patel
"Perubahan sikap perusahaan AI terhadap proyek militer menunjukkan bahwa tekanan ekonomi dan politik dapat mengalahkan komitmen awal terhadap etika dan keselamatan AI."

Analisis Kami

"Menurut saya, pergeseran industri AI ke ranah militer menandai babak yang sangat berbahaya karena risiko eskalasi konflik dan penyalahgunaan teknologi menjadi jauh lebih besar. Jika tidak ada regulasi internasional yang ketat dan transparansi, kita bisa menghadapi krisis keamanan global yang sulit dikendalikan akibat AI yang dipersenjatai."

Prediksi Kami

Penggunaan AI untuk aplikasi militer akan terus meningkat dan memperdalam keterlibatan perusahaan teknologi besar, yang berpotensi memicu perlombaan senjata AI serta tantangan etis dan keamanan global yang semakin kompleks.

Pertanyaan Terkait

Q
Siapa Heidy Khlaaf dan apa perannya dalam industri AI?
A
Heidy Khlaaf adalah ilmuwan AI utama di AI Now Institute dan ahli dalam keamanan AI untuk sistem senjata otonom.
Q
Apa perubahan terbaru yang dilakukan OpenAI terkait penggunaan teknologi militer?
A
OpenAI baru-baru ini menghapus larangan penggunaan untuk aplikasi militer dari syarat dan ketentuan mereka.
Q
Mengapa perusahaan AI seperti OpenAI dan Anthropic beralih ke aplikasi militer?
A
Perusahaan-perusahaan AI beralih ke aplikasi militer karena adanya permintaan dari pemerintah dan potensi keuntungan finansial.
Q
Apa risiko yang terkait dengan penggunaan AI dalam sistem senjata otonom?
A
Risiko termasuk kemungkinan penyalahgunaan teknologi oleh aktor jahat dan tantangan dalam memastikan keamanan dan etika penggunaan AI.
Q
Bagaimana reaksi publik dan karyawan terhadap perubahan kebijakan ini di perusahaan-perusahaan AI?
A
Reaksi publik dan karyawan cenderung kritis, dengan banyak yang mengekspresikan kekhawatiran tentang etika dan penggunaan teknologi dalam konteks militer.