Pomodo Logo IconPomodo Logo Icon
Tanya PomodoSemua Artikel
Semua
Ant Group Turunkan Biaya Pelatihan AI Besar dengan GPU Lokal Murah
Courtesy of SCMP
Teknologi
Kecerdasan Buatan

Ant Group Turunkan Biaya Pelatihan AI Besar dengan GPU Lokal Murah

25 Mar 2025, 18.30 WIB
168 dibaca
Share
Ikhtisar 15 Detik
  • Ant Group berhasil mengembangkan model bahasa besar dengan biaya yang lebih rendah.
  • Penggunaan GPU lokal memungkinkan pengurangan ketergantungan pada chip canggih dari Nvidia.
  • Teknik MoE memungkinkan pelatihan model yang lebih efisien pada perangkat dengan performa lebih rendah.
Ant Group, afiliasi fintech dari Alibaba, telah mengembangkan model bahasa besar (LLM) bernama Ling-Plus-Base yang dapat dilatih menggunakan GPU yang diproduksi secara lokal. Ini mengurangi ketergantungan pada chip canggih dari Nvidia dan menurunkan biaya pelatihan hingga 20%. Model ini memiliki 300 miliar parameter dan dapat dilatih dengan perangkat yang memiliki performa lebih rendah, tetapi tetap memberikan hasil yang sebanding dengan model-model lain yang lebih mahal.
Baca juga: Alibaba dan Zhipu Hadirkan Model AI Terbuka untuk Gen AI Video Terkini
Tim Ling dari Ant Group menjelaskan bahwa metode yang mereka gunakan, yaitu Mixture-of-Experts (MoE), memungkinkan mereka untuk membagi masalah menjadi bagian-bagian yang lebih kecil dan lebih mudah dipecahkan. Dengan cara ini, mereka dapat mengembangkan model AI yang lebih besar tanpa harus mengeluarkan biaya tinggi untuk perangkat keras yang canggih. Ini juga menunjukkan bahwa pelatihan model AI yang canggih bisa dilakukan dengan cara yang lebih fleksibel dan hemat biaya.
--------------------
Analisis Kami: Inovasi Ant Group ini menunjukkan bahwa ketergantungan pada perangkat keras mahal bukanlah satu-satunya jalan untuk mengembangkan AI berkinerja tinggi. Strategi ini bisa jadi menjadi inspirasi untuk perusahaan lain agar lebih fokus pada optimasi perangkat lunak dan perangkat keras lokal demi menekan biaya dan meningkatkan kedaulatan teknologi.
--------------------
Analisis Ahli:
Andrew Ng: Pendekatan Ant Group untuk menggunakan GPU yang lebih rendah performa menunjukkan bahwa efisiensi arsitektur model serta teknik MoE dapat menurunkan kebutuhan komputasi tanpa mengorbankan kualitas, yang merupakan arah penting bagi pengembangan AI berkelanjutan.
Fei-Fei Li: Ini memberikan contoh konkret bagaimana pengembangan AI lokal dapat memperkuat ekosistem teknologi regional, mendorong kemandirian, dan menantang monopoli teknologi Barat dalam bidang kecerdasan buatan.
--------------------
Baca juga: Huawei Bantah Tudingan Model AI Mirip dengan Alibaba: Klaim Pro MoE Asli
What's Next: Penggunaan GPU lokal dan teknologi MoE oleh perusahaan-perusahaan besar China akan semakin berkembang, mengurangi dominasi Nvidia dan memperkuat kemandirian teknologi AI China di masa depan.
Referensi:
[1] https://www.scmp.com/tech/tech-war/article/3303831/ant-groups-use-china-made-gpus-not-nvidia-cuts-ai-model-training-costs-20?module=top_story&pgtype=section

Pertanyaan Terkait

Q
Apa yang dilakukan Ant Group dalam pengembangan model bahasa besar?
A
Ant Group mengembangkan model bahasa besar menggunakan GPU yang diproduksi secara lokal.
Q
Apa keuntungan dari model Ling-Plus-Base yang dikembangkan oleh Ant Group?
A
Keuntungan dari model Ling-Plus-Base adalah dapat dilatih pada perangkat dengan performa lebih rendah dan mengurangi biaya pelatihan sebesar 20%.
Q
Mengapa Ant Group menghindari penggunaan chip Nvidia?
A
Ant Group menghindari penggunaan chip Nvidia untuk mengurangi ketergantungan pada teknologi yang terpengaruh oleh kontrol ekspor AS.
Q
Apa itu MoE dan bagaimana cara kerjanya?
A
MoE atau Mixture-of-Experts adalah teknik yang membagi ruang masalah menjadi bagian-bagian homogen menggunakan beberapa jaringan spesialis.
Q
Siapa saja pesaing Ant Group dalam pengembangan model bahasa besar?
A
Pesaing Ant Group dalam pengembangan model bahasa besar termasuk DeepSeek dan ByteDance.

Artikel Serupa

DeepSeek Ungkap Rahasia Keberhasilan AI Murah Lewat Co-Design Perangkat Keras dan Lunak
DeepSeek Ungkap Rahasia Keberhasilan AI Murah Lewat Co-Design Perangkat Keras dan Lunak
Dari SCMP
Alibaba Siapkan Qwen3 dengan Teknologi Mixture-of-Experts untuk AI Terbuka
Alibaba Siapkan Qwen3 dengan Teknologi Mixture-of-Experts untuk AI Terbuka
Dari SCMP
Tsinghua Kembangkan Framework AI Baru Mengurangi Ketergantungan Chip Nvidia
Tsinghua Kembangkan Framework AI Baru Mengurangi Ketergantungan Chip Nvidia
Dari SCMP
Terobosan ByteDance Optimalkan Pelatihan AI Bisa Kurangi Permintaan GPU Nvidia
Terobosan ByteDance Optimalkan Pelatihan AI Bisa Kurangi Permintaan GPU Nvidia
Dari SCMP
Alibaba Luncurkan Model AI QwQ-32B yang Lebih Kuat dan Hemat Sumber Daya
Alibaba Luncurkan Model AI QwQ-32B yang Lebih Kuat dan Hemat Sumber Daya
Dari SCMP
Yang Hongxia Pimpin Perkembangan AI Domain-Spesifik di Hong Kong Polytechnic
Yang Hongxia Pimpin Perkembangan AI Domain-Spesifik di Hong Kong Polytechnic
Dari SCMP
DeepSeek Ungkap Rahasia Keberhasilan AI Murah Lewat Co-Design Perangkat Keras dan LunakSCMP
Teknologi
3 bulan lalu
79 dibaca

DeepSeek Ungkap Rahasia Keberhasilan AI Murah Lewat Co-Design Perangkat Keras dan Lunak

Alibaba Siapkan Qwen3 dengan Teknologi Mixture-of-Experts untuk AI TerbukaSCMP
Teknologi
4 bulan lalu
130 dibaca

Alibaba Siapkan Qwen3 dengan Teknologi Mixture-of-Experts untuk AI Terbuka

Tsinghua Kembangkan Framework AI Baru Mengurangi Ketergantungan Chip NvidiaSCMP
Teknologi
5 bulan lalu
104 dibaca

Tsinghua Kembangkan Framework AI Baru Mengurangi Ketergantungan Chip Nvidia

Terobosan ByteDance Optimalkan Pelatihan AI Bisa Kurangi Permintaan GPU NvidiaSCMP
Teknologi
5 bulan lalu
83 dibaca

Terobosan ByteDance Optimalkan Pelatihan AI Bisa Kurangi Permintaan GPU Nvidia

Alibaba Luncurkan Model AI QwQ-32B yang Lebih Kuat dan Hemat Sumber DayaSCMP
Teknologi
5 bulan lalu
167 dibaca

Alibaba Luncurkan Model AI QwQ-32B yang Lebih Kuat dan Hemat Sumber Daya

Yang Hongxia Pimpin Perkembangan AI Domain-Spesifik di Hong Kong PolytechnicSCMP
Teknologi
5 bulan lalu
127 dibaca

Yang Hongxia Pimpin Perkembangan AI Domain-Spesifik di Hong Kong Polytechnic