Memandangkan model bahasa besar seperti GPT-4 semakin disepadukan dengan robotik, kecerdasan buatan secara beransur-ansur bergerak ke dunia nyata. Oleh itu, penyelidikan yang berkaitan dengan kecerdasan yang terkandung juga telah menarik perhatian lebih banyak. Di antara banyak projek penyelidikan, siri robot "RT" Google sentiasa berada di barisan hadapan dan trend ini telah mula berkembang pesat baru-baru ini (lihat "Model Besar Sedang Membina Semula Robot, Bagaimana Google Deepmind Mentakrifkan Kecerdasan Terwujud di Masa Depan" untuk butiran).
Pada Julai tahun lalu, Google DeepMind melancarkan RT-2, model pertama di dunia yang mampu mengawal robot untuk interaksi visual-language-action (VLA). Hanya dengan memberi arahan dalam cara perbualan, RT-2 boleh mengenal pasti Swift dalam sejumlah besar gambar dan menghantar setin Coke kepadanya.
Kini, robot ini telah berkembang semula. Versi terkini robot RT dipanggil "RT-H". Ia boleh meningkatkan ketepatan pelaksanaan tugas dan kecekapan pembelajaran dengan menguraikan tugasan yang kompleks kepada arahan bahasa mudah dan kemudian menukar arahan ini kepada tindakan robot. Sebagai contoh, diberi tugasan, seperti "meletakkan penutup pada balang pistachio" dan imej pemandangan, RT-H akan menggunakan model bahasa visual (VLM) untuk meramalkan tindakan bahasa (gerakan), seperti "gerakkan lengan ke hadapan. " dan "Putar lengan ke kanan", dan kemudian ramalkan tindakan robot berdasarkan tindakan lisan ini.
Tahap tindakan adalah penting untuk mengoptimumkan ketepatan dan kecekapan pembelajaran pelaksanaan tugas robot. Struktur hierarki ini menjadikan RT-H berprestasi lebih baik daripada RT-2 dalam pelbagai tugas robot, menyediakan laluan pelaksanaan yang lebih cekap untuk robot.
Berikut ialah butiran kertas tersebut. Pautan org/pdf/ 2403.01823 .pdf
Bahasa ialah enjin penaakulan manusia, yang membolehkan kita memecahkan konsep yang kompleks kepada komponen yang lebih mudah , salah faham kita, dan generalisasi konsep dalam konteks baharu. Dalam beberapa tahun kebelakangan ini, robot juga telah mula menggunakan struktur bahasa yang cekap dan gabungan untuk memecahkan konsep peringkat tinggi, menyediakan pembetulan bahasa, atau mencapai generalisasi dalam persekitaran baharu.
Memandangkan kelebihan tindakan bahasa di atas, penyelidik dari Google DeepMind mereka bentuk rangka kerja hujung ke hujung - RT-H (Pengubah Robot dengan Hierarki Tindakan, iaitu Transformer robot menggunakan tahap tindakan) , memfokuskan untuk mempelajari tahap tindakan ini. RT-H memahami cara melaksanakan tugas pada tahap terperinci dengan menganalisis pemerhatian dan huraian tugas peringkat tinggi untuk meramalkan arahan tindakan lisan semasa. Kemudian, menggunakan pemerhatian, tugasan dan tindakan lisan yang disimpulkan ini, RT-H meramalkan tindakan yang sepadan untuk setiap langkah Tindakan lisan menyediakan konteks tambahan dalam proses untuk membantu meramalkan tindakan tertentu dengan lebih tepat (kawasan ungu dalam Rajah 1).
Selain itu, mereka membangunkan kaedah automatik untuk mengekstrak set tindakan bahasa yang dipermudahkan daripada proprioception robot, membina pangkalan data yang kaya dengan lebih daripada 2500 tindakan bahasa tanpa memerlukan anotasi manual. Seni bina model
RT-H menggunakan RT-2, yang merupakan model bahasa visual berskala besar (VLM) yang dilatih bersama mengenai data visual dan bahasa berskala Internet untuk meningkatkan kesan pembelajaran dasar. RT-H menggunakan model tunggal untuk mengendalikan kedua-dua tindakan bahasa dan pertanyaan tindakan, memanfaatkan pengetahuan berskala internet yang meluas untuk menggerakkan setiap peringkat hierarki tindakan.
Dalam eksperimen, penyelidik mendapati bahawa menggunakan hierarki tindakan bahasa boleh membawa peningkatan yang ketara apabila memproses set data berbilang tugas yang pelbagai, meningkatkan prestasi sebanyak 15% pada julat tugas berbanding RT-2. Mereka juga mendapati bahawa mengubah suai pergerakan pertuturan menghasilkan kadar kejayaan yang hampir sempurna pada tugas yang sama, menunjukkan fleksibiliti dan kebolehsuaian situasi pergerakan pertuturan yang dipelajari. Tambahan pula, dengan memperhalusi model untuk intervensi tindakan bahasa, prestasinya melebihi kaedah pembelajaran tiruan interaktif SOTA (seperti IWR) sebanyak 50%. Akhirnya, mereka membuktikan bahawa tindakan bahasa dalam RT-H boleh menyesuaikan diri dengan perubahan adegan dan objek dengan lebih baik, menunjukkan prestasi generalisasi yang lebih baik daripada RT-2.
Untuk menangkap struktur dikongsi dengan berkesan merentas set data berbilang tugas (tidak diwakili oleh huraian tugas peringkat tinggi), RT-H bertujuan untuk belajar mengeksploitasi dasar peringkat tindakan secara eksplisit.
Secara khusus, pasukan penyelidik memperkenalkan lapisan ramalan tindakan bahasa perantaraan ke dalam pembelajaran dasar. Tindakan linguistik yang menerangkan tingkah laku terperinci robot boleh menangkap maklumat berguna daripada set data berbilang tugas dan boleh menjana dasar berprestasi tinggi. Tindakan lisan boleh dimainkan semula apabila dasar yang dipelajari sukar dilaksanakan: ia menyediakan antara muka intuitif untuk pembetulan manusia dalam talian yang berkaitan dengan senario tertentu. Dasar yang dilatih tentang tindakan pertuturan secara semula jadi boleh mengikut pembetulan manusia peringkat rendah dan berjaya menyelesaikan tugasan yang diberikan data pembetulan. Tambahan pula, strategi ini juga boleh dilatih mengenai data yang diperbetulkan bahasa dan seterusnya meningkatkan prestasinya.
Seperti yang ditunjukkan dalam Rajah 2, RT-H mempunyai dua peringkat utama: pertama meramalkan tindakan lisan berdasarkan penerangan tugasan dan pemerhatian visual, dan kemudian membuat kesimpulan tindakan tepat berdasarkan tindakan lisan yang diramalkan, tugasan khusus dan hasil pemerhatian.
RT-H menggunakan rangkaian tulang belakang VLM dan mengikuti proses latihan RT-2 untuk instantiasi. Sama seperti RT-2, RT-H memanfaatkan pengetahuan terdahulu yang luas dalam bahasa semula jadi dan pemprosesan imej daripada data berskala Internet melalui latihan kolaboratif. Untuk memasukkan pengetahuan terdahulu ini ke dalam semua peringkat hierarki tindakan, model tunggal mempelajari tindakan lisan dan pertanyaan tindakan secara serentak.
Untuk menilai secara menyeluruh prestasi RT-H, pasukan penyelidik menetapkan empat soalan eksperimen utama:
Dari segi set data, kajian ini menggunakan set data pelbagai tugas yang besar mengandungi 100,000 sampel demonstrasi dengan pose dan latar belakang objek rawak. Set data ini menggabungkan set data berikut:
Kajian ini memanggil set data gabungan ini set data Diverse+Kitchen (D+K) dan menggunakan atur cara automatik untuk melabelkannya untuk tindakan lisan. Untuk menilai prestasi RT-H yang dilatih pada set data Diverse+Kitchen penuh, kajian itu menilai lapan tugas khusus, termasuk:
1) Meletakkan mangkuk tegak di atas kaunter
2) Buka balang pistachio 3) Tutup balang pistachio
7) Dapatkan sudu dari bakul
8) Tarik napkin dari dispenser
Lapan tugasan ini dipilih kerana ia memerlukan urutan pergerakan yang kompleks dan ketepatan yang tinggi.
Jadual di bawah memberikan MSE minimum untuk pusat pemeriksaan latihan RT-H, RT-H-Joint dan RT-2 apabila berlatih pada set data Diverse+Kitchen atau set data Dapur. MSE RT-H adalah lebih kurang 20% lebih rendah daripada RT-2, dan MSE RTH-Joint adalah 5-10% lebih rendah daripada RT-2, menunjukkan bahawa hierarki tindakan boleh membantu meningkatkan ramalan tindakan luar talian dalam berbilang besar. - set data tugas. RT-H (GT) menggunakan metrik MSE kebenaran asas dan mencapai jurang 40% daripada MSE hujung ke hujung, menunjukkan bahawa tindakan bahasa yang dilabel dengan betul mempunyai nilai maklumat yang tinggi untuk meramalkan tindakan.
Rajah 4 menunjukkan beberapa contoh tindakan kontekstual yang diambil daripada penilaian dalam talian RT-H. Seperti yang dapat dilihat, tindakan lisan yang sama sering mengakibatkan perubahan halus dalam tindakan untuk menyelesaikan tugas, sambil tetap menghormati tindakan lisan peringkat lebih tinggi.
Seperti yang ditunjukkan dalam Rajah 5, pasukan penyelidik menunjukkan fleksibiliti RT-H dengan campur tangan dalam talian dengan pergerakan bahasa dalam RT-H. . Sendi mempunyai kesan berbeza pada adegan Perubahan nyata lebih mantap:
Malah, terdapat beberapa struktur dikongsi antara tugas yang kelihatan berbeza, contohnya setiap tugasan ini memerlukan beberapa gelagat memilih untuk memulakan tugas, dan dengan mempelajari struktur perkongsian tindakan bahasa merentas tugasan yang berbeza, RT-H boleh mencapai Pick up peringkat tanpa sebarang pembetulan.
Walaupun RT-H tidak lagi dapat menyamaratakan ramalan tindakan lisannya, pembetulan tindakan lisan selalunya boleh digeneralisasikan, jadi hanya beberapa pembetulan diperlukan untuk berjaya menyelesaikan tugasan itu. Ini menunjukkan potensi tindakan lisan untuk mengembangkan pengumpulan data pada tugasan baharu.
Pembaca yang berminat boleh membaca teks asal kertas untuk mengetahui lebih lanjut tentang kandungan penyelidikan.
Atas ialah kandungan terperinci Penyelidikan baharu Google tentang kecerdasan yang terkandung: RT-H, yang lebih baik daripada RT-2, ada di sini. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!