


Universiti Tsinghua dan Ideal mencadangkan DriveVLM, model bahasa besar visual untuk meningkatkan keupayaan pemanduan autonomi
Dalam bidang pemanduan autonomi, penyelidik juga meneroka arah model besar seperti GPT/Sora.
Berbanding dengan AI generatif, pemanduan autonomi juga merupakan salah satu bidang penyelidikan dan pembangunan paling aktif dalam AI baru-baru ini. Cabaran utama dalam membina sistem pemanduan autonomi sepenuhnya ialah pemahaman adegan AI, yang melibatkan senario yang kompleks dan tidak dapat diramalkan seperti cuaca buruk, susun atur jalan yang kompleks dan tingkah laku manusia yang tidak dapat diramalkan.
Sistem pemanduan autonomi semasa biasanya terdiri daripada tiga bahagian: persepsi 3D, ramalan gerakan dan perancangan. Secara khusus, persepsi 3D digunakan terutamanya untuk mengesan dan menjejak objek biasa, tetapi keupayaannya untuk mengenal pasti objek yang jarang ditemui dan atributnya adalah terhad manakala ramalan dan perancangan gerakan tertumpu terutamanya pada tindakan trajektori objek, tetapi biasanya mengabaikan hubungan antara objek dan kenderaan; Interaksi peringkat keputusan antara Had ini boleh menjejaskan ketepatan dan keselamatan sistem pemanduan autonomi apabila mengendalikan senario trafik yang kompleks. Oleh itu, teknologi pemanduan autonomi masa hadapan perlu dipertingkatkan lagi untuk mengenal pasti dan meramal pelbagai jenis objek dengan lebih baik, dan untuk merancang laluan pemanduan kenderaan dengan lebih berkesan untuk meningkatkan kecerdasan dan kebolehpercayaan sistem
Kunci untuk mencapai pemanduan autonomi Matlamatnya ialah untuk mengubah pendekatan dipacu data kepada pendekatan dipacu pengetahuan, yang memerlukan latihan model besar dengan keupayaan penaakulan logik. Hanya dengan cara ini sistem pemanduan autonomi boleh benar-benar menyelesaikan masalah ekor panjang dan bergerak ke arah keupayaan L4. Pada masa ini, apabila model berskala besar seperti GPT4 dan Sora terus muncul, kesan skala juga telah menunjukkan keupayaan beberapa pukulan/sifar pukulan yang kuat, yang telah mendorong orang ramai untuk mempertimbangkan arah pembangunan baharu.
Kertas penyelidikan terkini datang daripada Tsinghua University Cross Information Institute dan Li Auto, di mana mereka memperkenalkan model baharu yang dipanggil DriveVLM. Model ini diilhamkan oleh model bahasa visual (VLM) yang muncul dalam bidang kecerdasan buatan generatif. DriveVLM telah menunjukkan keupayaan cemerlang dalam pemahaman visual dan penaakulan.
Kerja ini adalah yang pertama dalam industri yang mencadangkan sistem kawalan kelajuan pemanduan autonomi. Kaedahnya menggabungkan sepenuhnya proses pemanduan autonomi arus perdana dengan proses model berskala besar dengan keupayaan pemikiran logik, dan merupakan kali pertama berjaya menggunakan sistem besar. -model skala ke terminal untuk ujian (Berdasarkan platform Orin).
DriveVLM merangkumi proses Chain-of-Though (CoT), termasuk tiga modul utama: penerangan senario, analisis senario dan perancangan hierarki. Dalam modul penerangan tempat kejadian, bahasa digunakan untuk menerangkan persekitaran pemanduan dan mengenal pasti objek utama di tempat kejadian, modul analisis pemandangan mengkaji secara mendalam ciri-ciri objek utama ini dan kesannya pada kenderaan autonomi manakala modul perancangan hierarki secara beransur-ansur merumuskan rancangan; elemen Tindakan dan keputusan diterangkan kepada titik laluan.
Modul ini sepadan dengan persepsi, ramalan dan langkah perancangan sistem pemanduan autonomi tradisional, tetapi perbezaannya ialah ia mengendalikan persepsi objek, ramalan tahap niat dan perancangan peringkat tugas, yang sangat mencabar pada masa lalu.
Walaupun VLM berprestasi baik dalam pemahaman visual, mereka mempunyai had dalam asas spatial dan penaakulan, dan keperluan kuasa pengkomputeran mereka menimbulkan cabaran kepada kelajuan penaakulan bahagian akhir. Oleh itu, penulis seterusnya mencadangkan DriveVLMDual, sistem hibrid yang menggabungkan kelebihan DriveVLM dan sistem tradisional. DriveVLM-Dual secara pilihan menyepadukan DriveVLM dengan persepsi 3D tradisional dan modul perancangan seperti pengesan objek 3D, rangkaian penghunian dan perancang gerakan, membolehkan sistem mencapai pembumian 3D dan keupayaan perancangan frekuensi tinggi. Reka bentuk dwi-sistem ini adalah serupa dengan proses pemikiran perlahan dan pantas otak manusia dan boleh menyesuaikan diri dengan berkesan kepada kerumitan yang berbeza dalam senario pemanduan.
Penyelidikan baharu juga menjelaskan lagi takrifan tugasan pemahaman dan perancangan (SUP) adegan dan mencadangkan beberapa metrik penilaian baharu untuk menilai keupayaan DriveVLM dan DriveVLM-Dual dalam analisis adegan dan perancangan meta-tindakan. Selain itu, pengarang melakukan kerja perlombongan dan anotasi data yang meluas untuk membina set data SUP-AD dalaman untuk tugasan SUP.
Percubaan meluas pada set data nuScenes dan set data kami sendiri menunjukkan keunggulan DriveVLM, terutamanya dengan sebilangan kecil tangkapan. Tambahan pula, DriveVLM-Dual mengatasi kaedah perancangan gerakan hujung ke hujung yang canggih.
Kertas "DriveVLM: Konvergensi Pemanduan Autonomi dan Model Bahasa Penglihatan Besar"

Pautan kertas: https://arxiv.org/abs/2402.12289
pautan:-mar-Projectsinghua lab.github.io/DriveVLM/
Proses keseluruhan DriveVLM ditunjukkan dalam Rajah 1:
Enkodkan imej visual bingkai berterusan, berinteraksi dengan LMM melalui modul penjajaran ciri
Panduan dari tempat kejadian; memikirkan model VLM, mula-mula membimbing pemandangan statik seperti masa, pemandangan, persekitaran lorong, dsb., dan kemudian membimbing halangan utama yang mempengaruhi keputusan pemanduan
Menganalisis halangan utama dan memadankannya melalui pengesanan 3D tradisional; halangan yang difahami oleh VLM , mengesahkan lagi keberkesanan halangan dan menghapuskan ilusi, menerangkan ciri-ciri halangan utama dalam adegan ini dan kesannya terhadap pemanduan kami
Memberi "meta-keputusan", seperti memperlahankan, meletak kenderaan, membelok ke kiri dan kanan, dsb., dan kemudian memberikan penerangan tentang strategi pemanduan berdasarkan keputusan meta, dan akhirnya memberikan trajektori pemanduan masa hadapan kenderaan tuan rumah.

Rajah 1. DriveVLM dan DriveVLM-Dual model saluran paip. Urutan imej diproses oleh model bahasa visual yang besar (VLM) untuk melaksanakan penaakulan rantaian pemikiran (CoT) khas untuk memperoleh hasil perancangan pemanduan. VLM besar melibatkan pengekod pengubah visual dan model bahasa besar (LLM). Pengekod visual menghasilkan teg imej; pengekstrak berasaskan perhatian kemudian menjajarkan teg ini dengan LLM dan akhirnya, LLM melakukan inferens CoT. Proses CoT boleh dibahagikan kepada tiga modul: penerangan senario, analisis senario, dan perancangan hierarki.
DriveVLM-Dual ialah sistem hibrid yang menggunakan pemahaman menyeluruh DriveVLM tentang persekitaran dan cadangan untuk trajektori keputusan untuk meningkatkan keupayaan membuat keputusan dan perancangan Pipeline pemanduan autonomi tradisional. Ia menggabungkan hasil persepsi 3D ke dalam isyarat lisan untuk meningkatkan pemahaman pemandangan 3D dan memperhalusi lagi titik laluan trajektori dengan perancang gerakan masa nyata.
Walaupun VLM pandai mengenal pasti objek berekor panjang dan memahami adegan yang kompleks, mereka sering bergelut untuk memahami lokasi spatial dan status pergerakan terperinci objek secara tepat, kelemahan yang menimbulkan cabaran yang ketara. Lebih memburukkan keadaan, saiz model VLM yang besar menghasilkan kependaman yang tinggi, menghalang keupayaan tindak balas masa nyata pemanduan autonomi. Untuk menangani cabaran ini, penulis mencadangkan DriveVLM-Dual, yang membolehkan DriveVLM dan sistem pemanduan autonomi tradisional bekerjasama. Pendekatan baharu ini melibatkan dua strategi utama: analisis objek utama digabungkan dengan persepsi 3D untuk memberikan maklumat keputusan pemanduan berdimensi tinggi, dan penghalusan trajektori frekuensi tinggi.
Selain itu, untuk merealisasikan sepenuhnya potensi DriveVLM dan DriveVLMDual dalam mengendalikan senario pemanduan yang kompleks dan ekor panjang, para penyelidik secara rasmi mentakrifkan tugas yang dipanggil perancangan pemahaman adegan, serta satu set metrik penilaian. Tambahan pula, pengarang mencadangkan protokol perlombongan dan anotasi data untuk mengurus pemahaman adegan dan set data perancangan.
Untuk melatih model sepenuhnya, penulis telah membangunkan satu set alat anotasi Drive LLM dan penyelesaian anotasi Melalui gabungan perlombongan automatik, pra-memberus persepsi, ringkasan model besar GPT-4 dan anotasi manual, model semasa telah dibentuk Dengan skema anotasi yang cekap ini, setiap data Klip mengandungi berpuluh-puluh kandungan anotasi. -Rajah 2. Sampel pengumuman set data SUP-AD.

Rajah 3. Saluran paip data dan anotasi untuk membina pemahaman senario dan merancang set data (di atas). Contoh senario yang diambil secara rawak daripada set data (di bawah) menunjukkan kepelbagaian dan kerumitan set data.

dataset nuScenes ialah set data memandu pemandangan bandar berskala besar dengan 1000 adegan, setiap satu berdurasi kira-kira 20 saat. Bingkai kunci dianotasi secara seragam pada 2Hz merentas keseluruhan set data. Di sini, penulis menggunakan ralat anjakan (DE) dan kadar perlanggaran (CR) sebagai penunjuk untuk menilai prestasi model pada pembahagian pengesahan. Pengarang menunjukkan prestasi DriveVLM dengan beberapa model bahasa visual berskala besar dan membandingkannya dengan GPT-4V, seperti ditunjukkan dalam Jadual 1. DriveVLM menggunakan Qwen-VL sebagai tulang belakangnya, yang mencapai prestasi terbaik berbanding VLM sumber terbuka lain dan dicirikan oleh responsif dan interaksi yang fleksibel. Dua model besar pertama telah menjadi sumber terbuka dan menggunakan data yang sama untuk latihan penalaan halus GPT-4V menggunakan gesaan kompleks untuk kejuruteraan segera.
Jadual 1. Keputusan set ujian pada set data SUP-AD. API rasmi GPT-4V digunakan di sini, dan untuk Lynx dan CogVLM, pembahagian latihan digunakan untuk penalaan halus.
Seperti yang ditunjukkan dalam Jadual 2, DriveVLM-Dual mencapai prestasi terkini pada tugas perancangan nuScenes apabila digandingkan dengan VAD. Ini menunjukkan bahawa kaedah baharu, walaupun disesuaikan untuk memahami adegan yang kompleks, juga berfungsi dengan baik dalam adegan biasa. Ambil perhatian bahawa DriveVLM-Dual bertambah baik dengan ketara berbanding UniAD: ralat anjakan perancangan purata dikurangkan sebanyak 0.64 meter dan kadar perlanggaran dikurangkan sebanyak 51%.

Jadual 2. Keputusan perancangan untuk set data pengesahan nuScenes. DriveVLM-Dual mencapai prestasi optimum. †Mewakili persepsi dan keputusan ramalan penghunian menggunakan Uni-AD. ‡ Menunjukkan bekerja dengan VAD, di mana semua model mengambil keadaan ego sebagai input. Rajah 4. Keputusan kualitatif DriveVLM. Lengkung oren mewakili trajektori masa depan yang dirancang model dalam tempoh 3 saat seterusnya.
Atas ialah kandungan terperinci Universiti Tsinghua dan Ideal mencadangkan DriveVLM, model bahasa besar visual untuk meningkatkan keupayaan pemanduan autonomi. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Tetapi mungkin dia tidak dapat mengalahkan lelaki tua di taman itu? Sukan Olimpik Paris sedang rancak berlangsung, dan pingpong telah menarik perhatian ramai. Pada masa yang sama, robot juga telah membuat penemuan baru dalam bermain pingpong. Sebentar tadi, DeepMind mencadangkan ejen robot pembelajaran pertama yang boleh mencapai tahap pemain amatur manusia dalam pingpong yang kompetitif. Alamat kertas: https://arxiv.org/pdf/2408.03906 Sejauh manakah robot DeepMind bermain pingpong? Mungkin setanding dengan pemain amatur manusia: kedua-dua pukulan depan dan pukulan kilas: pihak lawan menggunakan pelbagai gaya permainan, dan robot juga boleh bertahan: servis menerima dengan putaran yang berbeza: Walau bagaimanapun, keamatan permainan nampaknya tidak begitu sengit seperti lelaki tua di taman itu. Untuk robot, pingpong

Pada 21 Ogos, Persidangan Robot Dunia 2024 telah diadakan dengan megah di Beijing. Jenama robot rumah SenseTime "Yuanluobot SenseRobot" telah memperkenalkan seluruh keluarga produknya, dan baru-baru ini mengeluarkan robot permainan catur AI Yuanluobot - Edisi Profesional Catur (selepas ini dirujuk sebagai "Yuanluobot SenseRobot"), menjadi robot catur A pertama di dunia untuk rumah. Sebagai produk robot permainan catur ketiga Yuanluobo, robot Guoxiang baharu telah melalui sejumlah besar peningkatan teknikal khas dan inovasi dalam AI dan jentera kejuruteraan Buat pertama kalinya, ia telah menyedari keupayaan untuk mengambil buah catur tiga dimensi melalui cakar mekanikal pada robot rumah, dan melaksanakan Fungsi mesin manusia seperti bermain catur, semua orang bermain catur, semakan notasi, dsb.

Permulaan sekolah akan bermula, dan bukan hanya pelajar yang akan memulakan semester baharu yang harus menjaga diri mereka sendiri, tetapi juga model AI yang besar. Beberapa ketika dahulu, Reddit dipenuhi oleh netizen yang mengadu Claude semakin malas. "Tahapnya telah banyak menurun, ia sering berhenti seketika, malah output menjadi sangat singkat. Pada minggu pertama keluaran, ia boleh menterjemah dokumen penuh 4 halaman sekaligus, tetapi kini ia tidak dapat mengeluarkan separuh halaman pun. !" https:// www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/ dalam siaran bertajuk "Totally disappointed with Claude", penuh dengan

Pada Persidangan Robot Dunia yang diadakan di Beijing, paparan robot humanoid telah menjadi tumpuan mutlak di gerai Stardust Intelligent, pembantu robot AI S1 mempersembahkan tiga persembahan utama dulcimer, seni mempertahankan diri dan kaligrafi dalam. satu kawasan pameran, berkebolehan kedua-dua sastera dan seni mempertahankan diri, menarik sejumlah besar khalayak profesional dan media. Permainan elegan pada rentetan elastik membolehkan S1 menunjukkan operasi halus dan kawalan mutlak dengan kelajuan, kekuatan dan ketepatan. CCTV News menjalankan laporan khas mengenai pembelajaran tiruan dan kawalan pintar di sebalik "Kaligrafi Pengasas Syarikat Lai Jie menjelaskan bahawa di sebalik pergerakan sutera, bahagian perkakasan mengejar kawalan daya terbaik dan penunjuk badan yang paling menyerupai manusia (kelajuan, beban). dll.), tetapi di sisi AI, data pergerakan sebenar orang dikumpulkan, membolehkan robot menjadi lebih kuat apabila ia menghadapi situasi yang kuat dan belajar untuk berkembang dengan cepat. Dan tangkas

Pada persidangan ACL ini, para penyumbang telah mendapat banyak keuntungan. ACL2024 selama enam hari diadakan di Bangkok, Thailand. ACL ialah persidangan antarabangsa teratas dalam bidang linguistik pengiraan dan pemprosesan bahasa semula jadi Ia dianjurkan oleh Persatuan Antarabangsa untuk Linguistik Pengiraan dan diadakan setiap tahun. ACL sentiasa menduduki tempat pertama dalam pengaruh akademik dalam bidang NLP, dan ia juga merupakan persidangan yang disyorkan CCF-A. Persidangan ACL tahun ini adalah yang ke-62 dan telah menerima lebih daripada 400 karya termaju dalam bidang NLP. Petang semalam, persidangan itu mengumumkan kertas kerja terbaik dan anugerah lain. Kali ini, terdapat 7 Anugerah Kertas Terbaik (dua tidak diterbitkan), 1 Anugerah Kertas Tema Terbaik, dan 35 Anugerah Kertas Cemerlang. Persidangan itu turut menganugerahkan 3 Anugerah Kertas Sumber (ResourceAward) dan Anugerah Impak Sosial (

Petang ini, Hongmeng Zhixing secara rasmi mengalu-alukan jenama baharu dan kereta baharu. Pada 6 Ogos, Huawei mengadakan persidangan pelancaran produk baharu Hongmeng Smart Xingxing S9 dan senario penuh Huawei, membawakan sedan perdana pintar panoramik Xiangjie S9, M7Pro dan Huawei novaFlip baharu, MatePad Pro 12.2 inci, MatePad Air baharu, Huawei Bisheng With banyak produk pintar semua senario baharu termasuk pencetak laser siri X1, FreeBuds6i, WATCHFIT3 dan skrin pintar S5Pro, daripada perjalanan pintar, pejabat pintar kepada pakaian pintar, Huawei terus membina ekosistem pintar senario penuh untuk membawa pengguna pengalaman pintar Internet Segala-galanya. Hongmeng Zhixing: Pemerkasaan mendalam untuk menggalakkan peningkatan industri kereta pintar Huawei berganding bahu dengan rakan industri automotif China untuk menyediakan

Penyepaduan mendalam penglihatan dan pembelajaran robot. Apabila dua tangan robot bekerja bersama-sama dengan lancar untuk melipat pakaian, menuang teh dan mengemas kasut, ditambah pula dengan 1X robot humanoid NEO yang telah menjadi tajuk berita baru-baru ini, anda mungkin mempunyai perasaan: kita seolah-olah memasuki zaman robot. Malah, pergerakan sutera ini adalah hasil teknologi robotik canggih + reka bentuk bingkai yang indah + model besar berbilang modal. Kami tahu bahawa robot yang berguna sering memerlukan interaksi yang kompleks dan indah dengan alam sekitar, dan persekitaran boleh diwakili sebagai kekangan dalam domain spatial dan temporal. Sebagai contoh, jika anda ingin robot menuang teh, robot terlebih dahulu perlu menggenggam pemegang teko dan memastikannya tegak tanpa menumpahkan teh, kemudian gerakkannya dengan lancar sehingga mulut periuk sejajar dengan mulut cawan. , dan kemudian condongkan teko pada sudut tertentu. ini

Pengenalan Persidangan Dengan perkembangan pesat sains dan teknologi, kecerdasan buatan telah menjadi kuasa penting dalam menggalakkan kemajuan sosial. Dalam era ini, kami bertuah untuk menyaksikan dan mengambil bahagian dalam inovasi dan aplikasi Kecerdasan Buatan Teragih (DAI). Kecerdasan buatan yang diedarkan adalah cabang penting dalam bidang kecerdasan buatan, yang telah menarik lebih banyak perhatian dalam beberapa tahun kebelakangan ini. Agen berdasarkan model bahasa besar (LLM) tiba-tiba muncul Dengan menggabungkan pemahaman bahasa yang kuat dan keupayaan penjanaan model besar, mereka telah menunjukkan potensi besar dalam interaksi bahasa semula jadi, penaakulan pengetahuan, perancangan tugas, dsb. AIAgent mengambil alih model bahasa besar dan telah menjadi topik hangat dalam kalangan AI semasa. Au
