Courtesy of SCMP
Huawei Kembangkan Teknik AI Baru untuk Kurangi Ketergantungan Teknologi AS
Mengembangkan teknik pelatihan AI yang lebih efisien dan seimbang pada perangkat keras proprietari Huawei, guna mengurangi ketergantungan pada teknologi Amerika dan meningkatkan performa model besar seperti Large Language Model.
04 Jun 2025, 19.00 WIB
15 dibaca
Share
Ikhtisar 15 Detik
- Huawei berinovasi dalam arsitektur model AI untuk mengurangi ketergantungan pada teknologi AS.
- Metode MoGE dapat meningkatkan efisiensi pelatihan AI dengan cara yang lebih seimbang.
- Perusahaan teknologi China menghadapi tantangan namun terus berupaya meningkatkan kemampuan AI mereka.
Beijing, China - Huawei sedang berusaha mengurangi ketergantungannya pada teknologi AS dengan mengembangkan teknik pelatihan AI yang lebih efisien menggunakan hardware sendiri. Hal ini penting karena adanya pembatasan ekspor chip canggih dari Amerika Serikat ke China.
Baca juga: Rahasia Keberhasilan DeepSeek: Gabungan Desain Perangkat Keras dan Perangkat Lunak AI Murah
Tim penelitian Huawei yang bernama Pangu memperkenalkan konsep baru bernama Mixture of Grouped Experts (MoGE), sebuah peningkatan dari teknik yang sudah dipakai sebelumnya bernama Mixture of Experts (MoE).
MoE membantu membuat model AI besar dengan biaya yang lebih rendah dan kemampuan belajar yang tinggi, namun ada masalah karena tidak semua 'expert' atau sub-model bekerja secara merata, sehingga menyebabkan inefisiensi saat model dijalankan di banyak perangkat secara paralel.
MoGE bekerja dengan mengelompokkan para 'expert' ini sehingga beban kerja lebih seimbang dan efisiensi model menjadi lebih baik. Peningkatan ini didukung oleh penggunaan perangkat keras Huawei sendiri yang dirancang khusus.
Inovasi ini sangat penting untuk memastikan bahwa perusahaan-perusahaan China bisa tetap bersaing di bidang AI meskipun ada pembatasan dari luar, terutama dari Amerika mengenai teknologi chip canggih.
Pertanyaan Terkait
Q
Apa yang dikembangkan oleh tim Pangu di Huawei?A
Tim Pangu di Huawei mengembangkan model bahasa besar (LLM) yang dikenal sebagai Pangu.Q
Apa itu Mixture of Grouped Experts (MoGE)?A
Mixture of Grouped Experts (MoGE) adalah teknik yang ditingkatkan dari Mixture of Experts (MoE) untuk meningkatkan efisiensi pelatihan AI.Q
Mengapa MoGE dianggap lebih baik daripada Mixture of Experts (MoE)?A
MoGE dianggap lebih baik karena mengelompokkan pakar selama pemilihan dan menyeimbangkan beban kerja pakar, mengatasi ketidakefisienan MoE.Q
Apa dampak sanksi AS terhadap Huawei dalam pengembangan AI?A
Sanksi AS berdampak pada Huawei dengan membatasi akses mereka terhadap chip AI canggih, mendorong mereka untuk mengembangkan solusi perangkat keras mereka sendiri.Q
Siapa yang terlibat dalam penelitian Pangu?A
Penelitian Pangu melibatkan 22 kontributor inti dan 56 peneliti tambahan.