Courtesy of TechCrunch
Irregular Raih Pendanaan Rp1,1 Triliun untuk Amankan AI Masa Depan
Memberikan informasi tentang pendanaan besar yang diterima Irregular dalam pengembangan keamanan model AI, serta pentingnya sistem pengujian yang mampu mendeteksi risiko keamanan baru sebelum model dirilis ke publik.
18 Sep 2025, 04.52 WIB
221 dibaca
Share
Ikhtisar 15 Detik
- Irregular berkomitmen untuk mengamankan interaksi manusia dengan AI dan AI dengan AI.
- Pendanaan baru sebesar $80 juta menunjukkan kepercayaan investor pada potensi perusahaan di sektor keamanan AI.
- Sistem evaluasi dan simulasi yang dikembangkan oleh Irregular bertujuan untuk mendeteksi risiko sebelum muncul di dunia nyata.
Amerika Serikat - Perusahaan keamanan AI, Irregular, baru saja mengumumkan pendanaan baru sebesar 80 juta dolar AS yang dipimpin oleh Sequoia Capital dan Redpoint Ventures. Pendanaan ini memberikan valuasi perusahaan sekitar 450 juta dolar AS, dan di dalamnya juga ikut serta CEO dari perusahaan Wiz, Assaf Rappaport. Pendanaan ini bertujuan untuk memperkuat teknologi keamanan yang mereka kembangkan untuk AI.
Irregular, yang sebelumnya dikenal sebagai Pattern Labs, memiliki peran penting dalam evaluasi keamanan model AI seperti Claude 3.7 Sonnet dan model OpenAI o3 dan o4-mini. Mereka juga menciptakan framework bernama SOLVE yang digunakan untuk menilai kemampuan model dalam mendeteksi kerentanan. Framework ini dianggap penting dan sudah diadopsi secara luas di industri AI.
Tujuan utama Irregular adalah mengantisipasi dan mendeteksi risiko yang muncul secara tiba-tiba pada model AI baru sebelum risiko tersebut terlihat dalam penggunaan nyata. Perusahaan membangun sistem simulasi jaringan yang kompleks untuk melakukan pengujian intensif, di mana AI dapat bermain sebagai penyerang maupun pembela, untuk menemukan titik lemah pada model AI sebelum diluncurkan.
Fokus pada keamanan AI semakin penting karena kemampuan model AI yang semakin besar memberikan risiko baru, misalnya dalam menemukan kerentanan perangkat lunak yang bisa dieksploitasi. OpenAI sendiri meningkatkan protokol keamanannya untuk mencegah potensi spionase korporat. Irregular melihat perlunya pendekatan yang terus berkembang karena tantangan keamanan AI adalah isu yang terus berubah.
Para pendiri Irregular percaya bahwa keamanan model AI adalah usaha jangka panjang dengan banyak pekerjaan di depan. Dengan kemampuan model yang terus maju, maka sistem pengamanan juga harus semakin canggih dan adaptif sehingga risiko masa depan dapat dihadang sejak dini.
Referensi:
[1] https://techcrunch.com/2025/09/17/irregular-raises-80-million-to-secure-frontier-ai-models/
[1] https://techcrunch.com/2025/09/17/irregular-raises-80-million-to-secure-frontier-ai-models/
Analisis Ahli
Bruce Schneier
"Pendekatan menggunakan simulasi jaringan dalam pengujian keamanan AI adalah langkah penting untuk memahami risiko yang sulit diprediksi akibat evolusi model AI yang cepat."
Dan Geer
"Mengamankan AI memerlukan tidak hanya pengujian statis, tapi juga pengujian dinamis yang menangkap interaksi kompleks – apa yang dilakukan oleh Irregular sudah berada di arah yang benar."
Analisis Kami
"Irregular melakukan langkah strategis dengan menggabungkan pendanaan besar dan teknologi simulasi canggih untuk keamanan AI, menempatkan mereka di garis depan inovasi dalam cyberspace security. Namun, pendekatan mereka harus terus beradaptasi dengan cepat karena risiko AI terus berkembang seiring peningkatan kemampuan model itu sendiri."
Prediksi Kami
Ke depan, teknologi keamanan AI akan semakin penting dan kompleks, dengan pendekatan simulasi yang terus berkembang untuk mencegah eksploitasi dan kegagalan sistem sebelum diluncurkan secara luas.
Pertanyaan Terkait
Q
Apa tujuan utama dari perusahaan Irregular?A
Tujuan utama dari perusahaan Irregular adalah untuk mengamankan model AI dan mengidentifikasi risiko sebelum muncul di dunia nyata.Q
Siapa yang memimpin putaran pendanaan terbaru untuk Irregular?A
Putaran pendanaan terbaru untuk Irregular dipimpin oleh Sequoia Capital dan Redpoint Ventures.Q
Apa yang dimaksud dengan sistem SOLVE yang dikembangkan oleh Irregular?A
Sistem SOLVE adalah kerangka kerja yang digunakan untuk menilai kemampuan deteksi kerentanan dari suatu model AI.Q
Mengapa keamanan menjadi fokus utama dalam industri AI saat ini?A
Keamanan menjadi fokus utama dalam industri AI karena meningkatnya risiko yang muncul dari kemampuan model AI untuk menemukan kerentanan perangkat lunak.Q
Apa yang dilakukan Irregular untuk mendeteksi risiko emergent dalam model AI?A
Irregular menggunakan simulasi jaringan yang kompleks untuk menguji model AI dalam situasi sebagai penyerang dan pembela.