
Courtesy of TechCrunch
Startup Inferact Jadi Kunci Mempercepat AI dengan Pendanaan Rp2,1 Triliun
Memberikan informasi tentang transformasi vLLM dari proyek open-source menjadi startup bernama Inferact dengan pendanaan besar, serta menjelaskan pentingnya pengembangan teknologi inference AI untuk mempercepat dan menekan biaya penggunaan AI dalam aplikasi.
23 Jan 2026, 05.42 WIB
70 dibaca
Share
Ikhtisar 15 Detik
- Inferact berhasil mengumpulkan $150 juta dalam pendanaan awal dengan valuasi $800 juta.
- Teknologi inferensi dalam AI semakin menarik perhatian investor dengan fokus pada kecepatan dan efisiensi.
- Proyek vLLM dan SGLang menunjukkan potensi besar dalam komersialisasi teknologi AI.
Berkeley, Amerika Serikat - Startup Inferact baru-baru ini menerima dana awal sebesar 150 juta dolar AS dengan valuasi perusahaan mencapai 800 juta dolar AS. Inferact merupakan pengembangan dari proyek open-source vLLM yang bertujuan mempercepat proses inference AI untuk aplikasi nyata. Investasi ini menunjukkan kepercayaan besar dari investor kepada potensi teknologi ini di masa depan.
Pendanaan ini dipimpin oleh dua perusahaan modal ventura terkenal, yaitu Andreessen Horowitz dan Lightspeed Venture Partners. Pendanaan ini memperkuat posisi Inferact sebagai pemain utama di bidang inference AI, di mana persaingan dan kebutuhan akan efisiensi semakin tinggi. vLLM juga sebelumnya telah mendapat perhatian dari a16z, sebuah tanda bahwa banyak investor melihat masa depan cerah pada teknologi ini.
Selain Inferact, ada teknologi serupa bernama SGLang yang juga dikomersialkan melalui startup RadixArk dengan valuasi 400 juta dolar AS. Kedua proyek ini bermula dari laboratorium di UC Berkeley yang dipimpin oleh Ion Stoica, menunjukkan bagaimana riset akademik bisa bertransformasi menjadi bisnis startup yang sukses di dunia teknologi AI.
Fokus utama dari perkembangan ini adalah mempercepat dan menekan biaya proses AI inference, yaitu proses penerapan model AI yang sudah dilatih agar dapat langsung digunakan dalam aplikasi sehari-hari. Teknologi seperti ini sangat penting karena membantu berbagai perusahaan termasuk Amazon untuk mengintegrasikan AI secara efektif dan efisien.
CEO Inferact Simon Mo menyampaikan bahwa vLLM sudah digunakan oleh pengguna besar termasuk layanan cloud Amazon dan aplikasi belanja. Hal ini menandai bahwa teknologi ini tidak hanya menjadi teori, tetapi sudah diadopsi secara nyata dan menunjukkan nilai tambah dalam dunia teknologi modern.
Referensi:
[1] https://techcrunch.com/2026/01/22/inference-startup-inferact-lands-150m-to-commercialize-vllm/
[1] https://techcrunch.com/2026/01/22/inference-startup-inferact-lands-150m-to-commercialize-vllm/
Analisis Ahli
Ion Stoica
"Inovasi pada inference AI adalah langkah strategis yang sangat penting untuk menjembatani antara kemajuan riset dan penerapan teknologi secara nyata di industri."
Simon Mo
"Pendanaan besar ini memungkinkan Inferact untuk fokus memperkuat ekosistem inference AI dan mempercepat adopsi teknologi ini oleh perusahaan-perusahaan besar."
Analisis Kami
"Transformasi vLLM ke Inferact menunjukkan bahwa solusi inference AI menjadi sangat penting dan menarik perhatian besar dari investor kelas dunia. Dengan dukungan dana segar yang masif, mereka berpeluang mempercepat pengembangan teknologi yang bisa menekan biaya dan meningkatkan performa aplikasi AI pada skala industri."
Prediksi Kami
Inferact berpotensi menjadi salah satu pemain kunci dalam pasar teknologi inference AI, menarik lebih banyak investor dan pengguna besar, sekaligus mendorong inovasi serta efisiensi di industri AI global.
Pertanyaan Terkait
Q
Apa yang diumumkan oleh para pencipta proyek vLLM?A
Para pencipta proyek vLLM mengumumkan bahwa mereka telah mengubah alat tersebut menjadi startup bernama Inferact dan berhasil mengumpulkan $150 juta dalam pendanaan awal.Q
Siapa yang memimpin pendanaan untuk Inferact?A
Pendanaan untuk Inferact dipimpin oleh Andreessen Horowitz dan Lightspeed Venture Partners.Q
Apa fokus utama dari teknologi vLLM dan SGLang?A
Fokus utama dari teknologi vLLM dan SGLang adalah untuk meningkatkan kecepatan dan biaya dalam penerapan AI, khususnya dalam proses inferensi.Q
Di mana vLLM dan SGLang diinkubasi?A
vLLM dan SGLang diinkubasi di laboratorium UC Berkeley yang dipimpin oleh Ion Stoica.Q
Siapa CEO Inferact dan apa perannya?A
CEO Inferact adalah Simon Mo, yang merupakan salah satu pencipta asli proyek ini.

