Workshop Homepage: https: //www.php.cn/link/f73850aaa36d8564629a0d62c51009Acf
overview Agenten. In den letzten Jahren haben große multimodale Modelle (wie GPT-4V) beispiellose Fortschritte in der multimodalen Wahrnehmung und im Verständnis gezeigt. Der Einsatz von MLLMs zur Bewältigung komplexer Szenarien beim autonomen Fahren, insbesondere seltener, aber kritischer Hard-Case-Szenarien, ist eine ungelöste Herausforderung. Ziel dieses Workshops ist die Förderung innovativer Forschung im Bereich der multimodalen Wahrnehmung und des Verständnisses großer Modelle, der Anwendung fortschrittlicher AIGC-Technologie in autonomen Fahrsystemen und dem durchgängigen autonomen Fahren.
Workshop
Call for PapersDieser Papierentwurf konzentriert sich auf Themen wie multimodale Wahrnehmung und Verständnis autonomer Fahrszenen, Bild- und Videoerzeugung autonomer Fahrszenen, durchgängiges autonomes Fahren und mehr -Generation von autonomen Fahrlösungen in Industriequalität, einschließlich, aber nicht beschränkt auf:
Corner Case Mining und Generierung für autonomes Fahren.
Diese Einreichung unterliegt einer doppelten Blindprüfung durch OpenReview Plattform, und es werden zwei Arten von Einreichungen akzeptiert:
Vollständige Arbeit: Die Arbeit sollte maximal 14 Seiten im ECCV-Format umfassen, ohne Begrenzung der Länge der Referenzen und ergänzenden Materialien. Angenommene Beiträge werden Teil der offiziellen ECCV-Verhandlungen und dürfen nicht erneut bei anderen Konferenzen eingereicht werden.
Vollständiger Beitrag:
ECCV 2024 Workshop W-CODA |. Erweiterte Zusammenfassung:Track 1: Wahrnehmung und Verständnis schwieriger autonomer Fahrszenarien
Dieser Track konzentriert sich auf die Wahrnehmungs- und Verständnisfähigkeiten multimodaler Großmodelle (MLLMs) in schwierigen autonomen Fahrszenarien, einschließlich Gesamtszenenverständnis, regionalem Verständnis und Fähigkeiten B. Fahrempfehlungen, sollen die Entwicklung zuverlässigerer und erklärbarerer Agenten für das autonome Fahren fördern.
Track 2: Videogenerierung schwieriger autonomer Fahrszenarien
Dieser Track konzentriert sich auf die Fähigkeit des Diffusionsmodells, autonome Fahrszenenvideos mit mehreren Ansichten zu generieren. Basierend auf der gegebenen geometrischen 3D-Struktur der autonomen Fahrszene muss das Modell das entsprechende Video der autonomen Fahrszene generieren und Timing-Konsistenz, Multi-View-Konsistenz, spezifizierte Auflösung und Videodauer sicherstellen.
Wettbewerbszeit: 15. Juni 2024 bis 15. August 2024
Preiseinstellungen:1.000 USD für den Champion, 800 USD für den Zweitplatzierten und 600 USD für den dritten Zweitplatzierten (pro Strecke)
Zeitknoten (AoE-Zeit, UTC-12
)Vollständige Papiereinreichung
1. | st Aug August 2024 |
15.. August 2024 |
Abstract Paper Einreichung | ||
Einreichungsschluss für Abstracts |
1. September 2024 |
|
Benachrichtigung für Abstracts an Autoren |
| 7.. September 2024 |
Abstract Paper Camera Ready Deadline | 10. September 2024 | |
15. . | Juni Challenge-Benachrichtigung an den Gewinner, 2024 1. September 2024 |
|
Workshop (halbtags) | 30. September 2024 |
|
Kontakt uns |
Wenn Sie Fragen zum Workshop und zur Challenge haben, senden Sie bitte eine E-Mail Kontakt: w-coda2024@googlegroups.com | .
Das obige ist der detaillierte Inhalt vonECCV 2024 Workshop „Multimodales Verständnis und Videogenerierung von schwierigen Fallszenarien des autonomen Fahrens' Die Ausschreibung für Vorträge und Herausforderungen ist jetzt geöffnet!. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!