Page d'accueil de l'atelier : https://www.php.cn/link/f73850aa36d8564629a0d62c51009acf
Vue d'ensemble
Ce séminaire vise à discuter de la technologie de conduite autonome la plus avancée actuelle et des écarts de conduite autonome intelligente complète et fiable entre agents. Ces dernières années, de grands modèles multimodaux (tels que GPT-4V) ont démontré des progrès sans précédent dans la perception et la compréhension multimodales. Utiliser les MLLM pour traiter des scénarios complexes de conduite autonome, en particulier des scénarios difficiles, rares mais critiques, est un défi non résolu. Cet atelier vise à promouvoir la recherche innovante sur la perception et la compréhension multimodales des grands modèles, l'application de la technologie avancée AIGC dans les systèmes de conduite autonome et la conduite autonome de bout en bout.
AtelierAppel à communications
Cette ébauche d'article se concentre sur des sujets tels que la perception et la compréhension multimodales des scènes de conduite autonome, la génération d'images et de vidéos de scènes de conduite autonome, la conduite autonome de bout en bout, et ensuite -génération de solutions de conduite autonome de qualité industrielle, y compris, mais sans s'y limiter :
Règles de soumission :
Cette soumission sera soumise à un examen en double aveugle via OpenReview plateforme, et deux formes de soumissions seront acceptées :
Entrée de soumission :
Ce concours vise à améliorer la perception et la compréhension du modèle multimodal des situations extrêmes en conduite autonome, et à générer la capacité de représenter ces situations extrêmes. Nous offrons de généreux prix et bonus et vous invitons sincèrement à participer !
Track 1 : Perception et compréhension de scénarios de conduite autonome difficilesCette piste se concentre sur la perception et la compréhension des capacités des grands modèles multimodaux (MLLM) dans des scénarios de conduite autonome difficiles, y compris la compréhension globale de la scène, la compréhension régionale et les capacités telles que les recommandations de conduite sont conçues pour promouvoir le développement d’agents de conduite autonome plus fiables et explicables.
Piste 2 : Génération vidéo de scénarios de conduite autonome difficilesCette piste se concentre sur la capacité du modèle de diffusion à générer des vidéos de scènes de conduite autonome multi-vues. Sur la base de la structure géométrique 3D donnée de la scène de conduite autonome, le modèle doit générer la vidéo de la scène de conduite autonome correspondante et garantir la cohérence temporelle, la cohérence multi-vues, la résolution spécifiée et la durée de la vidéo.
Durée de la compétition :15 juin 2024 au 15 août 2024
Paramètres des prix : 1 000 USD pour le champion, 800 USD pour le finaliste et 600 USD pour le troisième finaliste (par piste)
Nœud horaire (
AoE Time, UTC-12)
1 er | Août , 2024
|
|
10 | Août 2024||
15 th | août 2024 ||
Abstract-Einreichungsschluss |
1. September 2024 |
|
Abstract-Paper-Benachrichtigung an Autoren |
| 7.. September 2024 |
Abstract Paper Camera Ready Deadline | 10. September 2024 | |
15. . | Juni Challenge-Benachrichtigung an den Gewinner, 2024 1. September 2024 |
|
Workshop (halbtags) | 30. September 2024 |
|
Kontakt uns |
Wenn Sie Fragen zum Workshop und zur Challenge haben, senden Sie bitte eine E-Mail an Kontakt: w-coda2024@googlegroups.com | .
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!