Pomodo Logo IconPomodo Logo Icon
Tanya PomodoSemua Artikel
Semua
entitas

MOE

MoE atau Mixture-of-Experts adalah teknik pembelajaran mesin yang menggunakan beberapa jaringan untuk membagi ruang masalah. Teknik ini telah diadopsi oleh banyak model AI terkemuka untuk meningkatkan efisiensi dan skala.
Penggunaan GPU lokal oleh Ant Group, bukan Nvidia, mengurangi biaya pelatihan model AI sebesar 20%.SCMP
Teknologi
4 bulan lalu

Penggunaan GPU lokal oleh Ant Group, bukan Nvidia, mengurangi biaya pelatihan model AI sebesar 20%.

Tentang Halaman Ini

MoE atau Mixture-of-Experts adalah teknik pembelajaran mesin yang menggunakan beberapa jaringan untuk membagi ruang masalah. Teknik ini telah diadopsi oleh banyak model AI terkemuka untuk meningkatkan efisiensi dan skala.