Jadual Kandungan
Ringkasan
Rumah Peranti teknologi AI Penyelidikan sistem mendedahkan model besar yang sangat diperlukan untuk sistem pemanduan autonomi generasi akan datang

Penyelidikan sistem mendedahkan model besar yang sangat diperlukan untuk sistem pemanduan autonomi generasi akan datang

Dec 16, 2023 pm 02:21 PM
ai Model Pemanduan autonomi

Dengan kemunculan model bahasa besar (LLM) dan model asas visual (VFM), diharapkan sistem kecerdasan buatan berbilang mod dengan model besar dapat melihat secara menyeluruh dunia sebenar dan membuat keputusan seperti manusia. Dalam beberapa bulan kebelakangan ini, LLM telah menarik perhatian meluas dalam bidang penyelidikan pemanduan autonomi. Walaupun potensi besar LLM, masih terdapat cabaran utama, peluang dan hala tuju penyelidikan masa depan dalam sistem pemanduan, yang pada masa ini tidak mempunyai penjelasan terperinci

Dalam artikel ini, penyelidikan dari Tencent Maps, Purdue University, UIUC, University of Virginia Personnel dijalankan penyelidikan sistematik dalam bidang ini. Kajian ini mula-mula memperkenalkan latar belakang model bahasa besar multimodal (MLLM), kemajuan pembangunan model multimodal menggunakan LLM, dan tinjauan sejarah pemanduan autonomi. Kajian itu kemudiannya memberikan gambaran keseluruhan alat MLLM sedia ada untuk sistem pemanduan, trafik dan pemetaan, serta set data sedia ada. Kajian ini juga meringkaskan kerja berkaitan daripada Bengkel WACV Pertama mengenai Bahasa Besar dan Model Penglihatan untuk Pemanduan Autonomi (LLVM-AD), bengkel pertama mengaplikasikan LLM dalam pemanduan autonomi. Bagi menggalakkan lagi pembangunan bidang ini, kajian ini turut membincangkan cara mengaplikasikan MLLM dalam sistem pemanduan autonomi dan beberapa isu penting yang perlu diselesaikan oleh ahli akademik dan industri.

Penyelidikan sistem mendedahkan model besar yang sangat diperlukan untuk sistem pemanduan autonomi generasi akan datang


  • Semak pautan: https://arxiv.org/abs/2311.12320
  • Pautan bengkel: https://llhubm-io/.
  • Pautan Github : https://github.com/IrohXu/Awesome-Multimodal-LLM-Autonomous-Driving

Penyelidikan sistem mendedahkan model besar yang sangat diperlukan untuk sistem pemanduan autonomi generasi akan datang

Review Structure

Review StructurePenyelidikan sistem mendedahkan model besar yang sangat diperlukan untuk sistem pemanduan autonomi generasi akan datang


Model LargeMusic ini telah menarik perhatian ramai Model MLLM ini, Model LargeMultimodal ini model menggabungkan keupayaan inferens LLM dengan data imej, video dan audio, membolehkan data ini melaksanakan pelbagai tugas dengan lebih cekap melalui penjajaran berbilang modal, termasuk klasifikasi imej, menjajarkan teks dengan video yang sepadan dan pengesanan pertuturan. Di samping itu, beberapa kajian telah menunjukkan bahawa LLM boleh mengendalikan tugas-tugas mudah dalam bidang robotik Namun, pada masa ini dalam bidang pemanduan autonomi, integrasi MLLM berkembang secara perlahan Adakah terdapat potensi untuk menambah baik sistem pemanduan autonomi yang sedia ada, seperti GPT-4, PaLM-2 dan LLM seperti LLaMA-2 masih memerlukan penyelidikan dan penerokaan lanjut

Penyelidikan sistem mendedahkan model besar yang sangat diperlukan untuk sistem pemanduan autonomi generasi akan datangDalam ulasan ini, penyelidik percaya bahawa penyepaduan LLM ke dalam bidang pemanduan autonomi boleh membawa perubahan paradigma yang ketara, sekali gus meningkatkan persepsi pemanduan , perancangan gerakan, dan interaksi manusia-kenderaan dan kawalan gerakan untuk menyediakan pengguna dengan penyelesaian pengangkutan masa hadapan yang lebih mudah disesuaikan dan boleh dipercayai. Dari segi persepsi, LLM boleh menggunakan Pembelajaran Alat untuk memanggil API luaran untuk mengakses sumber maklumat masa nyata, seperti peta berketepatan tinggi, laporan trafik dan maklumat cuaca, supaya kenderaan dapat memahami persekitaran sekeliling dengan lebih lengkap. Kereta pandu sendiri boleh membuat alasan tentang laluan sesak melalui LLM dan mencadangkan laluan alternatif untuk meningkatkan kecekapan dan pemanduan selamat. Dari segi perancangan pergerakan dan interaksi manusia-kenderaan, LLM boleh mempromosikan komunikasi berpusatkan pengguna, membolehkan penumpang menyatakan keperluan dan pilihan mereka dalam bahasa seharian. Dari segi kawalan gerakan, LLM terlebih dahulu membolehkan parameter kawalan disesuaikan mengikut keutamaan pemandu, merealisasikan pengalaman pemanduan yang diperibadikan. Selain itu, LLM boleh memberikan ketelusan kepada pengguna dengan menerangkan setiap langkah proses kawalan gerakan. Semakan meramalkan bahawa pada kenderaan autonomi tahap SAE L4-L5 akan datang, penumpang boleh menggunakan bahasa, gerak isyarat dan juga mata untuk menyampaikan permintaan mereka, dengan MLLM menyediakan maklum balas dalam kereta dan pemanduan masa nyata melalui paparan visual bersepadu atau respons suara.模 The proses pembangunan model pemanduan autonomi dan bahasa besar berbilang mod


Penyelidikan sistem mendedahkan model besar yang sangat diperlukan untuk sistem pemanduan autonomi generasi akan datang

Ringkasan penyelidikan pemanduan autonomi MLLM: Rangka kerja LLM model semasa terutamanya merangkumi LLAMA dan LLAMA 2. GPT-4. , Flan5XXL, Vicuna-13b. FT, ICL dan PT merujuk kepada penalaan halus, pembelajaran kontekstual dan pra-latihan dalam jadual ini. Untuk pautan literatur, sila rujuk repo github: https://github.com/IrohXu/Awesome-Multimodal-LLM-Autonomous-Driving

Untuk membina jambatan antara pemanduan autonomi dan LLVM, penyelidik yang berkaitan menganjurkan Bengkel Pemanduan Autonomi Model Bahasa dan Penglihatan Besar (LLVM-AD) pertama di Persidangan Musim Sejuk IEEE/CVF 2024 mengenai Aplikasi Penglihatan Komputer (WACV). Bengkel ini bertujuan untuk meningkatkan kerjasama antara penyelidik akademik dan profesional industri untuk meneroka kemungkinan dan cabaran melaksanakan model bahasa berskala besar pelbagai mod dalam bidang pemanduan autonomi. LLVM-AD akan terus mempromosikan pembangunan set data pemahaman bahasa trafik sebenar sumber terbuka seterusnya

Bengkel Pemanduan Autonomi Model Penglihatan dan Bahasa Skala Besar WACV (LLVM-AD) yang pertama menerima sejumlah sembilan kertas kerja. Beberapa kertas kerja ini berkisar tentang model bahasa besar berbilang mod dalam pemanduan autonomi, memfokuskan pada penyepaduan LLM ke dalam interaksi kenderaan pengguna, perancangan gerakan dan kawalan kenderaan. Beberapa kertas kerja juga meneroka aplikasi baharu LLM untuk interaksi seperti manusia dan membuat keputusan dalam kenderaan autonomi. Contohnya, "Meniru Pemanduan Manusia" dan "Memandu Mengikut Bahasa" meneroka tafsiran dan penaakulan LLM dalam senario pemanduan yang kompleks, serta rangka kerja untuk meniru tingkah laku manusia. Selain itu, "Sistem autonomi berpusatkan manusia dan LLM" menekankan meletakkan pengguna di tengah-tengah mereka bentuk LLM dan menggunakan LLM untuk mentafsir arahan pengguna. Pendekatan ini mewakili anjakan penting ke arah sistem autonomi berpusatkan manusia. Selain LLM gabungan, bengkel ini juga merangkumi beberapa kaedah berasaskan pemprosesan data dan penglihatan tulen. Di samping itu, bengkel ini membentangkan kaedah pemprosesan dan penilaian data yang inovatif. Contohnya, NuScenes-MQA memperkenalkan skim anotasi baharu untuk set data pemanduan autonomi. Secara kolektif, kertas kerja ini menunjukkan kemajuan dalam menyepadukan model bahasa dan teknik lanjutan ke dalam pemanduan autonomi, membuka jalan untuk kenderaan autonomi yang lebih intuitif, cekap dan berpusatkan manusia

Untuk perkembangan masa hadapan, Kajian ini mencadangkan arahan penyelidikan berikut:

Kandungan yang perlu ditulis semula ialah: 1. Set data baharu untuk model bahasa besar berbilang mod dalam pemanduan autonomi

Walaupun model bahasa besar digunakan dalam bahasa Terdapat kejayaan dalam memahami perkara ini, tetapi cabaran kekal dalam menerapkannya kepada pemanduan autonomi. Ini kerana model ini perlu menyepadukan dan memahami input daripada modaliti yang berbeza, seperti imej panorama, awan titik 3D dan peta berketepatan tinggi. Had semasa dalam saiz dan kualiti data bermakna set data sedia ada tidak dapat menangani cabaran ini sepenuhnya. Tambahan pula, set data bahasa visual yang dianotasi daripada set data sumber terbuka awal seperti NuScenes mungkin tidak memberikan garis dasar yang kukuh untuk pemahaman bahasa visual dalam senario pemanduan. Oleh itu, terdapat keperluan mendesak untuk set data berskala besar baharu yang meliputi pelbagai trafik dan senario pemanduan untuk menampung masalah panjang (ketidakseimbangan) pengedaran set data sebelumnya untuk menguji dan meningkatkan prestasi model ini secara berkesan dalam aplikasi pemanduan autonomi.

2. Sokongan perkakasan diperlukan untuk model bahasa besar dalam pemanduan autonomi

Fungsi yang berbeza dalam kenderaan autonomi mempunyai keperluan perkakasan yang berbeza. Menggunakan LLM di dalam kenderaan untuk perancangan pemanduan atau penglibatan dalam kawalan kenderaan memerlukan pemprosesan masa nyata dan kependaman rendah untuk memastikan keselamatan, yang meningkatkan keperluan pengiraan dan menjejaskan penggunaan kuasa. Jika LLM digunakan dalam awan, lebar jalur untuk pertukaran data menjadi satu lagi faktor keselamatan kritikal. Sebaliknya, menggunakan LLM untuk perancangan navigasi atau menganalisis arahan yang tidak berkaitan dengan pemanduan (seperti main balik muzik dalam kereta) tidak memerlukan volum pertanyaan yang tinggi dan prestasi masa nyata, menjadikan perkhidmatan jauh sebagai pilihan yang berdaya maju. Pada masa hadapan, LLM dalam pemanduan autonomi boleh dimampatkan melalui penyulingan pengetahuan untuk mengurangkan keperluan pengiraan dan kependaman Masih terdapat banyak ruang untuk pembangunan di kawasan ini. . Lapisan peta semantik dalam peta HD adalah penting kerana ia menangkap makna dan maklumat kontekstual persekitaran fizikal. Untuk mengekod maklumat ini dengan berkesan ke dalam pemanduan autonomi generasi seterusnya yang dipacu oleh sistem anotasi automatik AI peta ketepatan tinggi Tencent, model baharu diperlukan untuk memetakan ciri berbilang mod ini ke dalam ruang bahasa. Tencent telah membangunkan sistem pelabelan automatik AI peta berketepatan tinggi THMA berdasarkan pembelajaran aktif, yang boleh menghasilkan dan melabelkan peta berketepatan tinggi pada skala ratusan ribu kilometer. Untuk menggalakkan pembangunan bidang ini, Tencent mencadangkan set data MAPLM berdasarkan THMA, yang mengandungi imej panorama, awan titik lidar 3D dan anotasi peta ketepatan tinggi berasaskan konteks, serta tanda aras soalan dan jawapan baharu MAPLM-QA

4. Model bahasa besar dalam interaksi manusia-kenderaan

Interaksi manusia dengan kenderaan dan memahami tingkah laku pemanduan manusia juga menimbulkan cabaran besar dalam pemanduan autonomi. Pemandu manusia sering bergantung pada isyarat bukan lisan, seperti memperlahankan kelajuan untuk mengalah atau menggunakan pergerakan badan untuk berkomunikasi dengan pemandu atau pejalan kaki lain. Isyarat bukan lisan ini memainkan peranan penting dalam komunikasi di jalan raya. Terdapat banyak kemalangan yang melibatkan sistem pandu sendiri pada masa lalu kerana kereta pandu sendiri sering berkelakuan dengan cara yang tidak disangka oleh pemandu lain. Pada masa hadapan, MLLM akan dapat menyepadukan maklumat kontekstual yang kaya daripada pelbagai sumber dan menganalisis pandangan, gerak isyarat dan gaya pemanduan pemandu untuk lebih memahami isyarat sosial ini dan membolehkan perancangan yang cekap. Dengan menganggar isyarat sosial pemandu lain, LLM boleh meningkatkan keupayaan membuat keputusan dan keselamatan keseluruhan kenderaan autonomi.

Pemandu Autonomi Diperibadikan

Apabila kenderaan autonomi berkembang, aspek penting ialah mempertimbangkan cara ia menyesuaikan diri dengan pilihan pemanduan individu pengguna. Terdapat konsensus yang semakin meningkat bahawa kereta pandu sendiri harus meniru gaya pemanduan pengguna mereka. Untuk mencapai matlamat ini, sistem pemanduan autonomi perlu mempelajari dan menyepadukan pilihan pengguna dalam pelbagai aspek, seperti navigasi, penyelenggaraan kenderaan dan hiburan. Keupayaan penalaan arahan LLM dan keupayaan pembelajaran kontekstual menjadikannya ideal untuk menyepadukan keutamaan pengguna dan memacu maklumat sejarah ke dalam kenderaan autonomi untuk memberikan pengalaman pemanduan yang diperibadikan.

Ringkasan

Selama bertahun-tahun, pemanduan autonomi telah menjadi tumpuan perhatian orang ramai dan menarik ramai pelabur teroka. Mengintegrasikan LLM ke dalam kenderaan autonomi memberikan cabaran unik, tetapi mengatasinya akan meningkatkan sistem autonomi sedia ada dengan ketara. Boleh diramalkan bahawa kokpit pintar yang disokong oleh LLM mempunyai keupayaan untuk memahami senario pemanduan dan pilihan pengguna, dan mewujudkan kepercayaan yang lebih mendalam antara kenderaan dan penumpang. Selain itu, sistem pemanduan autonomi yang menggunakan LLM akan lebih berupaya menangani dilema etika yang melibatkan penimbangan keselamatan pejalan kaki berbanding keselamatan penumpang kenderaan, mempromosikan proses membuat keputusan yang lebih berkemungkinan beretika dalam senario pemanduan yang kompleks. Artikel ini menyepadukan cerapan daripada ahli jawatankuasa bengkel LLVM-AD WACV 2024 dan bertujuan untuk memberi inspirasi kepada penyelidik untuk menyumbang kepada pembangunan kenderaan autonomi generasi akan datang yang dikuasakan oleh teknologi LLM.

Atas ialah kandungan terperinci Penyelidikan sistem mendedahkan model besar yang sangat diperlukan untuk sistem pemanduan autonomi generasi akan datang. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Baris arahan shutdown centos Baris arahan shutdown centos Apr 14, 2025 pm 09:12 PM

Perintah shutdown CentOS adalah penutupan, dan sintaks adalah tutup [pilihan] [maklumat]. Pilihan termasuk: -h menghentikan sistem dengan segera; -P mematikan kuasa selepas penutupan; -r mulakan semula; -T Waktu Menunggu. Masa boleh ditentukan sebagai segera (sekarang), minit (minit), atau masa tertentu (HH: mm). Maklumat tambahan boleh dipaparkan dalam mesej sistem.

Cara Memeriksa Konfigurasi HDFS CentOS Cara Memeriksa Konfigurasi HDFS CentOS Apr 14, 2025 pm 07:21 PM

Panduan Lengkap untuk Memeriksa Konfigurasi HDFS Dalam Sistem CentOS Artikel ini akan membimbing anda bagaimana untuk memeriksa konfigurasi dan menjalankan status HDFS secara berkesan pada sistem CentOS. Langkah -langkah berikut akan membantu anda memahami sepenuhnya persediaan dan operasi HDFS. Sahkan Pembolehubah Alam Sekitar Hadoop: Pertama, pastikan pembolehubah persekitaran Hadoop ditetapkan dengan betul. Di terminal, laksanakan arahan berikut untuk mengesahkan bahawa Hadoop dipasang dan dikonfigurasi dengan betul: Hadoopversion Semak fail konfigurasi HDFS: Fail konfigurasi teras HDFS terletak di/etc/hadoop/conf/direktori, di mana core-site.xml dan hdfs-site.xml adalah kritikal. gunakan

Apakah kaedah sandaran untuk gitlab di centos Apakah kaedah sandaran untuk gitlab di centos Apr 14, 2025 pm 05:33 PM

Dasar sandaran dan pemulihan Gitlab di bawah sistem CentOS untuk memastikan keselamatan data dan pemulihan, Gitlab pada CentOS menyediakan pelbagai kaedah sandaran. Artikel ini akan memperkenalkan beberapa kaedah sandaran biasa, parameter konfigurasi dan proses pemulihan secara terperinci untuk membantu anda menubuhkan strategi sandaran dan pemulihan GitLab lengkap. 1. Backup Manual Gunakan Gitlab-Rakegitlab: Backup: Buat Perintah untuk Melaksanakan Backup Manual. Perintah ini menyokong maklumat utama seperti repositori Gitlab, pangkalan data, pengguna, kumpulan pengguna, kunci, dan kebenaran. Fail sandaran lalai disimpan dalam direktori/var/opt/gitlab/sandaran. Anda boleh mengubah suai /etc /gitlab

Bagaimana sokongan GPU untuk Pytorch di CentOS Bagaimana sokongan GPU untuk Pytorch di CentOS Apr 14, 2025 pm 06:48 PM

Membolehkan pecutan GPU pytorch pada sistem CentOS memerlukan pemasangan cuda, cudnn dan GPU versi pytorch. Langkah-langkah berikut akan membimbing anda melalui proses: Pemasangan CUDA dan CUDNN Tentukan keserasian versi CUDA: Gunakan perintah NVIDIA-SMI untuk melihat versi CUDA yang disokong oleh kad grafik NVIDIA anda. Sebagai contoh, kad grafik MX450 anda boleh menyokong CUDA11.1 atau lebih tinggi. Muat turun dan pasang Cudatoolkit: Lawati laman web rasmi Nvidiacudatoolkit dan muat turun dan pasang versi yang sepadan mengikut versi CUDA tertinggi yang disokong oleh kad grafik anda. Pasang Perpustakaan Cudnn:

Penjelasan terperinci mengenai Prinsip Docker Penjelasan terperinci mengenai Prinsip Docker Apr 14, 2025 pm 11:57 PM

Docker menggunakan ciri -ciri kernel Linux untuk menyediakan persekitaran berjalan yang cekap dan terpencil. Prinsip kerjanya adalah seperti berikut: 1. Cermin digunakan sebagai templat baca sahaja, yang mengandungi semua yang anda perlukan untuk menjalankan aplikasi; 2. Sistem Fail Kesatuan (Unionfs) menyusun pelbagai sistem fail, hanya menyimpan perbezaan, menjimatkan ruang dan mempercepatkan; 3. Daemon menguruskan cermin dan bekas, dan pelanggan menggunakannya untuk interaksi; 4. Ruang nama dan cgroups melaksanakan pengasingan kontena dan batasan sumber; 5. Pelbagai mod rangkaian menyokong interkoneksi kontena. Hanya dengan memahami konsep -konsep teras ini, anda boleh menggunakan Docker dengan lebih baik.

CentOS memasang MySQL CentOS memasang MySQL Apr 14, 2025 pm 08:09 PM

Memasang MySQL pada CentOS melibatkan langkah -langkah berikut: Menambah sumber MySQL YUM yang sesuai. Jalankan YUM Pasang Perintah MySQL-Server untuk memasang pelayan MySQL. Gunakan perintah mysql_secure_installation untuk membuat tetapan keselamatan, seperti menetapkan kata laluan pengguna root. Sesuaikan fail konfigurasi MySQL seperti yang diperlukan. Tune parameter MySQL dan mengoptimumkan pangkalan data untuk prestasi.

Cara Melihat Log Gitlab Di Bawah Centos Cara Melihat Log Gitlab Di Bawah Centos Apr 14, 2025 pm 06:18 PM

Panduan Lengkap untuk Melihat Log Gitlab Di bawah Sistem CentOS Artikel ini akan membimbing anda bagaimana untuk melihat pelbagai log Gitlab dalam sistem CentOS, termasuk log utama, log pengecualian, dan log lain yang berkaitan. Sila ambil perhatian bahawa laluan fail log mungkin berbeza -beza bergantung pada versi GitLab dan kaedah pemasangan. Jika laluan berikut tidak wujud, sila semak fail Direktori Pemasangan dan Konfigurasi GitLab. 1. Lihat log Gitlab utama Gunakan arahan berikut untuk melihat fail log utama aplikasi GitLabRails: Perintah: Sudocat/var/Log/Gitlab/Gitlab-Rails/Production.log Perintah ini akan memaparkan produk

Cara Memilih Versi PyTorch di CentOS Cara Memilih Versi PyTorch di CentOS Apr 14, 2025 pm 06:51 PM

Apabila memasang pytorch pada sistem CentOS, anda perlu dengan teliti memilih versi yang sesuai dan pertimbangkan faktor utama berikut: 1. Keserasian Persekitaran Sistem: Sistem Operasi: Adalah disyorkan untuk menggunakan CentOS7 atau lebih tinggi. CUDA dan CUDNN: Versi Pytorch dan versi CUDA berkait rapat. Sebagai contoh, Pytorch1.9.0 memerlukan CUDA11.1, manakala Pytorch2.0.1 memerlukan CUDA11.3. Versi CUDNN juga mesti sepadan dengan versi CUDA. Sebelum memilih versi PyTorch, pastikan anda mengesahkan bahawa versi CUDA dan CUDNN yang serasi telah dipasang. Versi Python: Cawangan Rasmi Pytorch

See all articles