Startup RadixArk dan vLLM Cepat Raih Investasi Besar Berkat Inovasi AI
Courtesy of TechCrunch

Startup RadixArk dan vLLM Cepat Raih Investasi Besar Berkat Inovasi AI

Artikel ini bertujuan menjelaskan transisi proyek open source optimasi inferensi AI menjadi startup komersial yang bernilai ratusan juta dolar, sekaligus menyoroti pentingnya efisiensi dalam menjalankan model AI yang dapat menghemat biaya besar di industri teknologi.

22 Jan 2026, 06.24 WIB
250 dibaca
Share
Ikhtisar 15 Detik
  • RadixArk terus mengembangkan SGLang sebagai mesin model AI open source.
  • Perusahaan-perusahaan seperti RadixArk dan vLLM menunjukkan pentingnya optimasi inferensi dalam layanan AI.
  • Pendanaan untuk infrastruktur inferensi AI mengalami peningkatan signifikan, menunjukkan permintaan yang tinggi di pasar.
Berkeley, Amerika Serikat - Beberapa tim yang bertanggung jawab dalam pemeliharaan SGLang, alat open source populer yang membantu mempercepat pelatihan AI, kini telah beralih ke startup komersial bernama RadixArk. Startup ini berasal dari proyek yang dimulai di laboratorium UC Berkeley dan telah dinilai sekitar 400 juta dolar setelah pendanaan terbaru yang dipimpin oleh Accel.
Ying Sheng, yang pernah bekerja di startup AI Elon Musk dan Databricks, menjadi salah satu pendiri dan CEO RadixArk. Startup ini fokus mengoptimalkan proses inferensi model AI, yang penting untuk menjalankan model lebih cepat dan efisien dengan biaya server yang lebih rendah.
Proyek lain bernama vLLM juga mengalami hal serupa, berubah dari open source menjadi perusahaan komersial dengan potensi pendanaan mencapai 160 juta dolar yang dipimpin oleh Andreessen Horowitz. Keduanya dikembangkan di laboratorium Ion Stoica di UC Berkeley yang terkenal di bidang teknologi dan startup AI.
RadixArk tetap melanjutkan pengembangan open source SGLang dan juga mengembangkan framework baru bernama Miles untuk pembelajaran penguatan (reinforcement learning). Meskipun sebagian alat masih gratis, RadixArk sudah mulai mengenakan biaya untuk layanan hostingnya, menunjukkan adanya pergeseran menuju model bisnis komersial.
Pendanaan besar-besaran di startup penyedia infrastruktur inferensi AI, seperti Baseten dan Fireworks AI, menunjukkan betapa pentingnya lapisan inferensi ini dalam ekosistem AI yang terus berkembang dan mahal. Hal ini menegaskan bahwa efisiensi dalam menjalankan model AI menjadi fokus utama industri teknologi saat ini.
Referensi:
[1] https://techcrunch.com/2026/01/21/sources-project-sglang-spins-out-as-radixark-with-400m-valuation-as-inference-market-explodes/

Analisis Ahli

Ion Stoica
"Mengkomersialisasi teknologi open source memungkinkan penerapan yang lebih luas dan akses investasi yang dapat mempercepat pengembangan teknologi AI secara keseluruhan."
Brittany Walker
"Populeritas dan adopsi SGLang dan vLLM membuktikan bahwa solusi optimasi inferensi sangat dibutuhkan di pasar AI modern yang makin kompleks dan mahal."

Analisis Kami

"Transformasi proyek open source seperti SGLang dan vLLM menjadi startup komersial adalah langkah strategis yang menunjukkan bahwa ekosistem AI kini sangat menjanjikan secara bisnis. Namun, penting untuk menjaga keseimbangan antara inovasi terbuka dan penawaran komersial agar komunitas pengembang tetap mendapatkan manfaat maksimal."

Prediksi Kami

Pengembangan startup dari proyek open source optimasi inferensi AI akan terus menarik investasi besar dan mendorong inovasi dalam efisiensi penggunaan sumber daya AI, sehingga semakin banyak perusahaan AI dapat menekan biaya operasional mereka secara signifikan.

Pertanyaan Terkait

Q
Apa yang menjadi fokus utama RadixArk?
A
RadixArk berfokus pada optimasi pemrosesan inferensi untuk layanan AI.
Q
Siapa yang mendirikan RadixArk?
A
RadixArk didirikan oleh Ying Sheng.
Q
Apa yang dilakukan oleh SGLang?
A
SGLang adalah alat open source yang digunakan untuk mempercepat pelatihan model AI.
Q
Berapa nilai pendanaan terbaru yang diterima RadixArk?
A
RadixArk baru-baru ini dinilai sekitar $400 juta dalam putaran pendanaan yang dipimpin oleh Accel.
Q
Apa hubungan antara SGLang dan vLLM?
A
SGLang dan vLLM keduanya diinkubasi di laboratorium Ion Stoica di UC Berkeley.