Courtesy of Reuters
MLCommons Luncurkan Benchmark Baru untuk Uji Kecepatan AI dan Server Nvidia Jadi Terdepan
02 Apr 2025, 22.10 WIB
116 dibaca
Share
Ikhtisar 15 Detik
- MLCommons mengembangkan benchmark baru untuk meningkatkan performa aplikasi AI.
- Nvidia menunjukkan peningkatan signifikan dalam kecepatan server AI mereka.
- Benchmark baru ini bertujuan untuk mendekati waktu respons instan dalam aplikasi AI konsumen.
MLCommons, sebuah kelompok yang fokus pada kecerdasan buatan (AI), baru saja meluncurkan dua benchmark baru untuk mengukur seberapa cepat perangkat keras dan perangkat lunak dapat menjalankan aplikasi AI. Sejak peluncuran ChatGPT oleh OpenAI dua tahun lalu, perusahaan chip mulai beralih untuk membuat perangkat keras yang lebih efisien dalam menjalankan kode AI. Benchmark baru ini dirancang untuk mengukur kecepatan sistem dalam menjawab pertanyaan dan menghasilkan kode.
Salah satu benchmark baru ini didasarkan pada model AI Llama 3.1 yang dibuat oleh Meta, yang memiliki 405 miliar parameter. Benchmark ini menguji kemampuan sistem untuk memproses pertanyaan besar dan menggabungkan data dari berbagai sumber. Nvidia, salah satu perusahaan chip terkemuka, mengajukan beberapa chipnya untuk benchmark ini dan menunjukkan bahwa server AI terbaru mereka, yang disebut Grace Blackwell, jauh lebih cepat dibandingkan generasi sebelumnya.
Benchmark kedua juga didasarkan pada model AI open-source dari Meta dan bertujuan untuk meniru kinerja aplikasi AI konsumen seperti ChatGPT. Tujuannya adalah untuk mempercepat waktu respons sehingga mendekati respons instan. Dengan pengembangan ini, diharapkan aplikasi AI dapat memberikan jawaban yang lebih cepat dan efisien kepada pengguna.
--------------------
Analisis Kami: Kinerja server Nvidia yang meningkat drastis menunjukkan bahwa inovasi hardware adalah kunci untuk memenuhi kebutuhan aplikasi AI modern yang membutuhkan pemrosesan massive secara real-time. Namun, dominasi satu perusahaan seperti Nvidia juga bisa menyebabkan kurangnya diversifikasi kompetisi, berpotensi memperlambat inovasi jangka panjang dari pemain lain seperti AMD.
--------------------
Analisis Ahli:
Andrew Ng: Dalam bidang AI, hardware yang mampu menangani model skala besar dengan latensi rendah sangat penting untuk aplikasi nyata. Benchmark seperti yang dikembangkan MLCommons akan memastikan adanya standar bagi industri untuk berinovasi secara cepat dan terukur.
--------------------
What's Next: Pengembangan perangkat keras khusus AI seperti server Nvidia dengan GPU tinggi akan terus mempercepat kemajuan AI, mendorong aplikasi AI yang lebih responsif dan kompleks dengan penggunaan yang lebih luas di berbagai sektor.
Referensi:
[1] https://www.reuters.com/technology/artificial-intelligence/new-ai-benchmarks-test-speed-running-ai-applications-2025-04-02/
[1] https://www.reuters.com/technology/artificial-intelligence/new-ai-benchmarks-test-speed-running-ai-applications-2025-04-02/
Pertanyaan Terkait
Q
Apa yang diumumkan oleh MLCommons?A
MLCommons mengumumkan dua benchmark baru untuk mengukur kecepatan perangkat keras dan perangkat lunak dalam menjalankan aplikasi AI.Q
Apa tujuan dari benchmark baru yang dikembangkan oleh MLCommons?A
Tujuan dari benchmark baru adalah untuk mengukur kemampuan sistem dalam memproses kueri besar dan menyintesis data dari berbagai sumber.Q
Siapa yang mengajukan chip untuk benchmark baru tersebut?A
Nvidia dan pembangun sistem seperti Dell Technologies mengajukan chip untuk benchmark baru tersebut.Q
Apa yang membuat server AI Nvidia terbaru lebih cepat?A
Server AI Nvidia terbaru lebih cepat karena memiliki koneksi chip yang lebih cepat dan efisien.Q
Apa model AI yang digunakan dalam benchmark baru ini?A
Model AI yang digunakan dalam benchmark baru ini adalah Llama 3.1 yang dikembangkan oleh Meta.