Courtesy of TechCrunch
MIT baru-baru ini memperkenalkan model baru untuk melatih robot yang berbeda dari metode biasa. Alih-alih menggunakan data yang terbatas, mereka menggunakan pendekatan yang lebih besar dengan meniru cara pelatihan model bahasa besar (LLMs). Penelitian ini menunjukkan bahwa pembelajaran imitasi, di mana robot belajar dengan mengikuti orang yang melakukan tugas, sering kali gagal ketika dihadapkan pada tantangan kecil seperti perubahan pencahayaan atau rintangan baru. Untuk mengatasi masalah ini, tim peneliti mengembangkan arsitektur baru yang disebut Heterogeneous Pretrained Transformers (HPT), yang mengumpulkan informasi dari berbagai sensor dan lingkungan.
Dengan HPT, robot dapat dilatih dengan lebih baik karena data yang lebih beragam. Pengguna hanya perlu memasukkan desain robot, konfigurasi, dan tugas yang ingin dilakukan. Peneliti berharap dapat menciptakan "otak robot universal" yang bisa diunduh dan digunakan tanpa pelatihan tambahan. Meskipun masih dalam tahap awal, mereka optimis bahwa pendekatan ini akan membawa kemajuan besar dalam kebijakan robotik, mirip dengan yang terjadi pada model bahasa besar. Penelitian ini juga didukung oleh Toyota Research Institute, yang sebelumnya telah mengembangkan metode pelatihan robot yang cepat.