Maison > Périphériques technologiques > IA > le corps du texte

L'atelier ECCV 2024 Compréhension multimodale et génération de vidéos de scénarios de cas difficiles de conduite autonome L'appel à communications et le défi sont maintenant ouverts !

WBOY
Libérer: 2024-06-04 20:47:35
original
873 Les gens l'ont consulté

ECCV 2024 Workshop自动驾驶难例场景多模态理解与视频生成征稿与挑战赛火热启动!

Page d'accueil de l'atelier : https://www.php.cn/link/f73850aa36d8564629a0d62c51009acf

Vue d'ensemble

Ce séminaire vise à discuter de la technologie de conduite autonome la plus avancée actuelle et des écarts de conduite autonome intelligente complète et fiable entre agents. Ces dernières années, de grands modèles multimodaux (tels que GPT-4V) ont démontré des progrès sans précédent dans la perception et la compréhension multimodales. Utiliser les MLLM pour traiter des scénarios complexes de conduite autonome, en particulier des scénarios difficiles, rares mais critiques, est un défi non résolu. Cet atelier vise à promouvoir la recherche innovante sur la perception et la compréhension multimodales des grands modèles, l'application de la technologie avancée AIGC dans les systèmes de conduite autonome et la conduite autonome de bout en bout.

AtelierAppel à communications

Cette ébauche d'article se concentre sur des sujets tels que la perception et la compréhension multimodales des scènes de conduite autonome, la génération d'images et de vidéos de scènes de conduite autonome, la conduite autonome de bout en bout, et ensuite -génération de solutions de conduite autonome de qualité industrielle, y compris, mais sans s'y limiter :

  • Exploration et génération de cas d'angle pour la conduite autonome.
  • Détection d'objets 3D et compréhension de scènes.
  • Prédiction d'occupation sémantique.
  • Apprentissage faiblement supervisé pour le Lidar 3D. et images 2D.
  • Apprentissage en un seul coup/zéro pour la perception autonome.
  • Systèmes de conduite autonome de bout en bout avec de grands modèles multimodaux.
  • Techniques de grands modèles linguistiques adaptables aux systèmes de conduite autonome.
  • Sécurité/ explicabilité/robustesse pour la conduite autonome de bout en bout.
  • Adaptation du domaine et généralisation pour la conduite autonome de bout en bout.

Règles de soumission :

Cette soumission sera soumise à un examen en double aveugle via OpenReview plateforme, et deux formes de soumissions seront acceptées :

  1. Article complet : L'article doit comporter moins de 14 pages au format ECCV, sans limite sur la longueur des références et des documents supplémentaires. Les articles acceptés feront partie des actes officiels de l'ECCV et ne pourront pas être soumis à nouveau à d'autres conférences.
  2. Résumé étendu : l'article doit contenir moins de 4 pages au format CVPR. Il n'y a pas de limite à la longueur des références et des documents supplémentaires. Les articles acceptés ne seront pas inclus dans les actes officiels de l'ECCV et pourront être soumis à nouveau à d'autres conférences.

Entrée de soumission :

  1. Article complet : ECCV 2024 Workshop W-CODA | OpenReview
  2. Extended Abstract : ECCV 2024 Workshop W-CODA Abstract Paper Track | Exemples difficiles d'autonomie Driving Scene Multimodal Understanding and Video Generation Challenge

Ce concours vise à améliorer la perception et la compréhension du modèle multimodal des situations extrêmes en conduite autonome, et à générer la capacité de représenter ces situations extrêmes. Nous offrons de généreux prix et bonus et vous invitons sincèrement à participer !

Track 1 : Perception et compréhension de scénarios de conduite autonome difficiles

Cette piste se concentre sur la perception et la compréhension des capacités des grands modèles multimodaux (MLLM) dans des scénarios de conduite autonome difficiles, y compris la compréhension globale de la scène, la compréhension régionale et les capacités telles que les recommandations de conduite sont conçues pour promouvoir le développement d’agents de conduite autonome plus fiables et explicables.

Piste 2 : Génération vidéo de scénarios de conduite autonome difficiles

Cette piste se concentre sur la capacité du modèle de diffusion à générer des vidéos de scènes de conduite autonome multi-vues. Sur la base de la structure géométrique 3D donnée de la scène de conduite autonome, le modèle doit générer la vidéo de la scène de conduite autonome correspondante et garantir la cohérence temporelle, la cohérence multi-vues, la résolution spécifiée et la durée de la vidéo.

Durée de la compétition :

15 juin 2024 au 15 août 2024

Paramètres des prix : 1 000 USD pour le champion, 800 USD pour le finaliste et 600 USD pour le troisième finaliste (par piste)

Nœud horaire (

AoE Time, UTC-12

)

Soumission complète des articlesDate limite de soumission des articles complets Août , 2024Notification complète de l'article aux auteurs Août 2024Date limite de préparation de l'appareil photo papier complet août 2024 Soumission d'un résuméAbstract-Paper-Benachrichtigung an Autoren7.Abstract Paper Camera Ready Deadline10. September 2024ChallengeHerausforderung öffentlich zugänglich Juni Challenge-Benachrichtigung an den Gewinner, 2024 .

1

er

10

15

th

Abstract-Einreichungsschluss

1. September 2024

.

September 2024

15.

.

1. September 2024

Workshop (halbtags)

30. September 2024

Kontakt uns

Wenn Sie Fragen zum Workshop und zur Challenge haben, senden Sie bitte eine E-Mail an

Kontakt: w-coda2024@googlegroups.com

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:jiqizhixin.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal