Huawei Kembangkan Teknik AI Baru untuk Kurangi Ketergantungan Teknologi AS
Courtesy of SCMP

Huawei Kembangkan Teknik AI Baru untuk Kurangi Ketergantungan Teknologi AS

Mengembangkan teknik pelatihan AI yang lebih efisien dan seimbang pada perangkat keras proprietari Huawei, guna mengurangi ketergantungan pada teknologi Amerika dan meningkatkan performa model besar seperti Large Language Model.

SCMP
DariĀ SCMP
04 Jun 2025, 19.00 WIB
15 dibaca
Share
Ikhtisar 15 Detik
  • Huawei berinovasi dalam arsitektur model AI untuk mengurangi ketergantungan pada teknologi AS.
  • Metode MoGE dapat meningkatkan efisiensi pelatihan AI dengan cara yang lebih seimbang.
  • Perusahaan teknologi China menghadapi tantangan namun terus berupaya meningkatkan kemampuan AI mereka.
Beijing, China - Huawei sedang berusaha mengurangi ketergantungannya pada teknologi AS dengan mengembangkan teknik pelatihan AI yang lebih efisien menggunakan hardware sendiri. Hal ini penting karena adanya pembatasan ekspor chip canggih dari Amerika Serikat ke China.
Tim penelitian Huawei yang bernama Pangu memperkenalkan konsep baru bernama Mixture of Grouped Experts (MoGE), sebuah peningkatan dari teknik yang sudah dipakai sebelumnya bernama Mixture of Experts (MoE).
MoE membantu membuat model AI besar dengan biaya yang lebih rendah dan kemampuan belajar yang tinggi, namun ada masalah karena tidak semua 'expert' atau sub-model bekerja secara merata, sehingga menyebabkan inefisiensi saat model dijalankan di banyak perangkat secara paralel.
MoGE bekerja dengan mengelompokkan para 'expert' ini sehingga beban kerja lebih seimbang dan efisiensi model menjadi lebih baik. Peningkatan ini didukung oleh penggunaan perangkat keras Huawei sendiri yang dirancang khusus.
Inovasi ini sangat penting untuk memastikan bahwa perusahaan-perusahaan China bisa tetap bersaing di bidang AI meskipun ada pembatasan dari luar, terutama dari Amerika mengenai teknologi chip canggih.

Pertanyaan Terkait

Q
Apa yang dikembangkan oleh tim Pangu di Huawei?
A
Tim Pangu di Huawei mengembangkan model bahasa besar (LLM) yang dikenal sebagai Pangu.
Q
Apa itu Mixture of Grouped Experts (MoGE)?
A
Mixture of Grouped Experts (MoGE) adalah teknik yang ditingkatkan dari Mixture of Experts (MoE) untuk meningkatkan efisiensi pelatihan AI.
Q
Mengapa MoGE dianggap lebih baik daripada Mixture of Experts (MoE)?
A
MoGE dianggap lebih baik karena mengelompokkan pakar selama pemilihan dan menyeimbangkan beban kerja pakar, mengatasi ketidakefisienan MoE.
Q
Apa dampak sanksi AS terhadap Huawei dalam pengembangan AI?
A
Sanksi AS berdampak pada Huawei dengan membatasi akses mereka terhadap chip AI canggih, mendorong mereka untuk mengembangkan solusi perangkat keras mereka sendiri.
Q
Siapa yang terlibat dalam penelitian Pangu?
A
Penelitian Pangu melibatkan 22 kontributor inti dan 56 peneliti tambahan.

Artikel Serupa

AI start-up menantang dominasi Nvidia dengan dukungan Beijing.SCMP
Teknologi
3 bulan lalu
90 dibaca

AI start-up menantang dominasi Nvidia dengan dukungan Beijing.

ByteDance mengatakan bahwa teknologi AI baru meningkatkan efisiensi pelatihan model.SCMP
Teknologi
3 bulan lalu
71 dibaca

ByteDance mengatakan bahwa teknologi AI baru meningkatkan efisiensi pelatihan model.

Dana sains China menyerukan lebih banyak penelitian setelah mempelajari model DeepSeek.SCMP
Teknologi
3 bulan lalu
114 dibaca

Dana sains China menyerukan lebih banyak penelitian setelah mempelajari model DeepSeek.

DeepSeek memberikan keuntungan bagi pembuat chip di China dalam perlombaan untuk AI yang lebih murah.YahooFinance
Teknologi
4 bulan lalu
97 dibaca

DeepSeek memberikan keuntungan bagi pembuat chip di China dalam perlombaan untuk AI yang lebih murah.

DeepSeek mendukung upaya China untuk mengurangi ketergantungan pada ekosistem Nvidia.SCMP
Teknologi
4 bulan lalu
107 dibaca

DeepSeek mendukung upaya China untuk mengurangi ketergantungan pada ekosistem Nvidia.

Perubahan paradigma? Pandangan dari China tentang DeepSeek dan perlombaan AI globalInterestingEngineering
Teknologi
4 bulan lalu
122 dibaca

Perubahan paradigma? Pandangan dari China tentang DeepSeek dan perlombaan AI global