


Die International Autonomous Driving Challenge 2024 startet offiziell
- Neue Wettbewerbsthemen: Sieben Tracks, neuartige Wettbewerbsthemen, umfassende Berichterstattung über die neuesten und heißesten Themen in verwandten Bereichen, vollständige Erforschung der Anwendung großer Modelle in den vertikalen Bereichen autonomes Fahren und verkörperte Intelligenz.
- Hohes Preisgeld: Der Gesamtpreispool übersteigt 120.000 US-Dollar und das maximale Preisgeld in einem einzelnen Track kann 27.000 US-Dollar erreichen. Unvollständigen Statistiken zufolge ist der Belohnungsbetrag der höchste unter den 100 Foren im CVPR 2024.
- Konzentrieren Sie sich auf Originalität: Stärken Sie die Grundlagenforschung und -erkundung und halten Sie sich an die vier Aspekte. Als Hauptmessindikatoren werden Originalität und wissenschaftlicher Forschungswert herangezogen, und Rankings basieren nicht nur auf der Leistung. Durch die Kombination von Originallösungen und Leistungsindikatoren wird ein umfassendes Ranking erstellt.
Am 1. März 2024 wurde die International Autonomous Driving Challenge 2024 offiziell gestartet. Dieser Wettbewerb wird vom Shanghai Artificial Intelligence Laboratory ausgerichtet und von einer Reihe in- und ausländischer Institutionen mitorganisiert. Das Wettbewerbsleitungs- und Preiskomitee besteht aus einer Reihe namhafter Experten und Wissenschaftler aus dem In- und Ausland. Ziel dieses Wettbewerbs ist es, die Aufgaben und Herausforderungen, mit denen autonome Systeme konfrontiert sind, eingehend zu untersuchen und globalen Teilnehmern eine Bühne zu bieten, um Technologie und Innovation vorzustellen. Bei diesem Wettbewerb legen wir keine allzu großen Einschränkungen für die Teilnehmer fest. Beispielsweise dürfen mehrere Teams derselben Organisation teilnehmen, alle öffentlichen Datensätze und Vortrainingsgewichte dürfen verwendet werden, und ein Team darf dies tun mehrere Auszeichnungen gleichzeitig gewinnen. Es gibt sieben Titel in diesem Wettbewerb, und der Gewinner hat die Möglichkeit, eine Belohnung von bis zu 27.000 US-Dollar zu erhalten, und hat außerdem die Möglichkeit, eingeladen zu werden, Artikel in internationalen Top-Zeitschriften einzureichen. Darüber hinaus haben wir für jede Strecke detaillierte Wettbewerbsrichtlinien und Benchmark-Modelle erstellt, die durch Klicken auf den entsprechenden Link für jede Strecke aufgerufen werden können.
Offizielle Website des Wettbewerbs:
https://opendrivelab.com/challenge2024
Hauptveranstaltung:
CVPR 2024 Forum – Workshop on Foundation Models for Autonomous Systems (Seattle, USA)
Verwandte Veranstaltungen :
- Ende April: Die 3. China 3D Vision Conference (China3DV 2024)
- http://www.csig3dv.net/2024/competition.html
- Mitte Juni: Offline-Veranstaltungen (Peking/Shanghai)
Einführung in das Wettbewerbsthema End-to-End-Autonomes Fahren
Aufgrund der begrenzten Größe bisheriger Datensätze und inkonsistenter Open-Loop- und Closed-Loop-Indikatoren ist ein Benchmarking schwierig sensomotorische Strategien unter Verwendung realer Daten. In diesem Track werden umfangreiche Daten verwendet, um die Lücke zwischen den beiden Bewertungsparadigmen zu schließen, und durch die abstrakte BEV-Modellierung in einer kurzen Zeitreihe wird eine effiziente Open-Loop-Bewertung bei gleichzeitig besserer Abstimmung mit der Closed-Loop-Bewertung erreicht.
- Track Informationen: https://www.php.cn/link/492f948808daf55a3f9e7ddd3694f546#end_to_end_driving_at_scale
- data Volume: Über 2tt
- test Server: Https://huggingfact. -2024
Weltmodell
Als abstrakte räumlich-zeitliche Darstellung der Realität kann das Weltmodell den zukünftigen Zustand basierend auf dem beobachteten aktuellen Zustand vorhersagen. Das Erlernen des Weltmodells wird die Leistung des Grundmodells fördern Modell auf ein neues Niveau. Das Modell muss die Punktwolke zu zukünftigen Zeitpunkten nur mit visuellen Eingaben vorhersagen, um seine Fähigkeit zur Vorhersage der Welt zu beweisen. 🔜 https://huggingface.co/spaces/AGC2024-P/predictive-world-model-2024
- Belegungsraster und Bewegungsschätzung
- Dreidimensionale Boxen reichen oft nicht aus, um allgemeine Objekte zu beschreiben, die von Robotikkonzepten inspiriert sind , kann die Wahrnehmungsdarstellung als Vorhersage der Besetzung eines gerasterten dreidimensionalen Raums beschrieben werden. Bei diesem Track müssen die Teilnehmer nicht nur eine Rasterdarstellung des dreidimensionalen Raums liefern, sondern auch die Bewegung des Rasters vorhersagen.
Autonomous Driving Challenge @China3DV: https://huggingface.co/spaces/China3DV-S/occupancy-and-flow -2024 Datenvolumen: ca. 70 GB
Referenztrainingszeit: 8 Karten 3090, 2 Tage
- Testserver: https://huggingface.co/spaces/AGC2024-S/occupancy-and-flow-2024
- Verkörperte multimodale dreidimensionale visuelle Positionierung
-
Im Vergleich zu Fahrszenen sind in Innenräumen verkörperte dreidimensionale Wahrnehmungssysteme mit multimodalen Eingaben konfrontiert, einschließlich Sprachanweisungen, komplexerem semantischem Verständnis, vielfältigeren Objektkategorien und -orientierungen sowie sehr unterschiedlichen Wahrnehmungsräumen und -bedürfnissen. Auf dieser Grundlage konstruierte der Wettbewerb ein multimodales, dreidimensionales Wahrnehmungs-Toolkit für die erste Perspektive, EmbodiedScan. Das Ziel dieser Aufgabe besteht darin, anhand einer verbalen Beschreibung eines bestimmten Objekts die Kategorie des Zielobjekts und dessen Ausrichtung im dreidimensionalen Feld zu ermitteln.
- Track-Informationen: https://www.php.cn/link/492f948808daf55a3f9e7ddd3694f546#multiview_3d_visual_grounding
- Datenvolumen: ca. 1,5T
- Referenztrainingszeit: Beispieldaten 8 Karten A100 0,5 Tage, vollständige Daten 8 Karten A1 00 3 Tage
- Testserver: https://huggingface.co/spaces/AGC2024/visual-grounding-2024
CARLA Self-Driving Challenge
Bei der CARLA Self-Driving Challenge müssen Fahrzeuge eine Reihe von Tests durchlaufen -definierte Routen. Die Fahrrouten von Fahrzeugen umfassen komplexe Situationen wie Autobahnen, städtische Gebiete, Wohngebiete und ländliche Umgebungen. Sie umfassen auch Licht und Wetter wie Sonnenlicht, Sonnenuntergang, Nacht, Regen und Nebel, die eine geschlossene Auswertung ermöglichen autonome Fahrsysteme.
- Track-Informationen: https://www.php.cn/link/492f948808daf55a3f9e7ddd3694f546#carla
- Testserver: https://eval.ai/web/challenges/challenge-page/2098/overview
Anwendung eines großen Sprachmodells beim autonomen Fahren
Durch die Einführung von Sprachinformationen verbindet der DriveLM-Datensatz das große Sprachmodell mit dem autonomen Fahrsystem und trifft schließlich Entscheidungen, indem er die Argumentationsfähigkeit der Sprache einführt, um die Zuverlässigkeit der Planung sicherzustellen . interpretierend. Das Modell verwendet Multi-View-Bilder als Eingabeinformationen und muss verschiedene Fragen im Zusammenhang mit dem Fahren beantworten. 🔜 Referenztrainingszeit: 8 Karten V100, 1 Tag
- Testserver: https://huggingface.co/spaces/AGC2024/driving-with-lingual-2024
- Fahren ohne Bilder
-
Automatisch ohne HD-Karte Fahren Ein Auto erfordert ein hohes Maß an Szenenverständnis, und dieser Track zielt darauf ab, die Grenzen des Szenendenkens auszuloten. Unter Verwendung von Mehransichtsbildern und Karten mit Standardauflösung als Eingabeinformationen muss das neuronale Netzwerk nicht nur die Wahrnehmungsergebnisse von Fahrspuren und Verkehrselementen ausgeben, sondern auch die topologischen Beziehungen zwischen Fahrspuren und zwischen Fahrspuren und Verkehrselementen.
Streckeninformationen: https://www.php.cn/link/492f948808daf55a3f9e7ddd3694f546 #mapless_drivingAutonomous Driving Challenge @China3DV: https://huggingface.co/spaces/China3DV/mapless-driving-2024
Datenvolumen : ca. 200G
- Referenztrainingszeit: 8 Karten V100, 1 Tag
- Testserver: https://huggingface.co/spaces/AGC2024/mapless-driving-2024
- Der Zeitplan ist wie folgt
-
Alle Zeiten beziehen sich auf Pekinger Zeit. Weitere Informationen finden Sie auf der offiziellen Website des Wettbewerbs.
Ab sofort – 1. Juni 2024: Anmeldung
1. März 2024:- Der Wettbewerb beginnt offiziell
- 25. März 2024: Testserver ist geöffnet
- Juni 2024 1.: Test Server geschlossen
- 18. Juni 2024: Wettbewerbsergebnisse bekannt gegeben
- Guidance and Awards Committee
- Sortierung nach Namensstrichen; die Liste wird fortlaufend aktualisiert.
Qiao Yu
Shanghai Artificial Intelligence Laboratory
Leitender Wissenschaftler, Assistent des Direktors Liu Universität für Post und Telekommunikation Yang Xiaokang Shanghai Jiaotong University Li Singha-Universität Sekretär des Parteikomitees der Fahrzeughochschule, nationales hochrangiges Führungstalent, Professor
Zhang Yaqin
Tsinghua-Universität
Ausländischer Akademiker der Chinesischen Akademie für Ingenieurwissenschaften, Präsident von das Intelligent Industry Research Institute, Lehrstuhlinhaber
Chen Baoquan
Universität Peking
Stellvertretender Dekan der School of Intelligence, Boya Distinguished Professor
Xia Huaxia
Meituan
Chefwissenschaftler, Vizepräsident
Gaoxinbo
Universität für Post und Telekommunikation Chongqing
Stellvertretender Sekretär des Parteikomitees, Präsident, Professor
Xue Jianru
Xi'an Jiaotong University
Professor
Klicken Sie auf „Originaltext lesen“ oder besuchen Sie den folgenden Link, um mehr zu erfahren
https://opendrivelab.com/challenge2024
WeChat-Kommunikationsgruppe
Über uns-> Treten Sie der Community bei
Registrierungslink
Kontakt-E-Mail
workshop-e2e-ad@googlegroups.com
Das obige ist der detaillierte Inhalt vonDie International Autonomous Driving Challenge 2024 startet offiziell. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Aber vielleicht kann er den alten Mann im Park nicht besiegen? Die Olympischen Spiele in Paris sind in vollem Gange und Tischtennis hat viel Aufmerksamkeit erregt. Gleichzeitig haben Roboter auch beim Tischtennisspielen neue Durchbrüche erzielt. Gerade hat DeepMind den ersten lernenden Roboteragenten vorgeschlagen, der das Niveau menschlicher Amateurspieler im Tischtennis-Wettkampf erreichen kann. Papieradresse: https://arxiv.org/pdf/2408.03906 Wie gut ist der DeepMind-Roboter beim Tischtennisspielen? Vermutlich auf Augenhöhe mit menschlichen Amateurspielern: Sowohl Vorhand als auch Rückhand: Der Gegner nutzt unterschiedliche Spielstile, und auch der Roboter hält aus: Aufschlagannahme mit unterschiedlichem Spin: Allerdings scheint die Intensität des Spiels nicht so intensiv zu sein wie Der alte Mann im Park. Für Roboter, Tischtennis

Der Schulstart steht vor der Tür und nicht nur die Schüler, die bald ins neue Semester starten, sollten auf sich selbst aufpassen, sondern auch die großen KI-Modelle. Vor einiger Zeit war Reddit voller Internetnutzer, die sich darüber beschwerten, dass Claude faul werde. „Sein Niveau ist stark gesunken, es kommt oft zu Pausen und sogar die Ausgabe wird sehr kurz. In der ersten Woche der Veröffentlichung konnte es ein komplettes 4-seitiges Dokument auf einmal übersetzen, aber jetzt kann es nicht einmal eine halbe Seite ausgeben.“ !

Am 21. August fand in Peking die Weltroboterkonferenz 2024 im großen Stil statt. Die Heimrobotermarke „Yuanluobot SenseRobot“ von SenseTime hat ihre gesamte Produktfamilie vorgestellt und kürzlich den Yuanluobot AI-Schachspielroboter – Chess Professional Edition (im Folgenden als „Yuanluobot SenseRobot“ bezeichnet) herausgebracht und ist damit der weltweit erste A-Schachroboter für heim. Als drittes schachspielendes Roboterprodukt von Yuanluobo hat der neue Guoxiang-Roboter eine Vielzahl spezieller technischer Verbesserungen und Innovationen in den Bereichen KI und Maschinenbau erfahren und erstmals die Fähigkeit erkannt, dreidimensionale Schachfiguren aufzunehmen B. durch mechanische Klauen an einem Heimroboter, und führen Sie Mensch-Maschine-Funktionen aus, z. B. Schach spielen, jeder spielt Schach, Überprüfung der Notation usw.

Auf der World Robot Conference in Peking ist die Präsentation humanoider Roboter zum absoluten Mittelpunkt der Szene geworden. Am Stand von Stardust Intelligent führte der KI-Roboterassistent S1 drei große Darbietungen mit Hackbrett, Kampfkunst und Kalligraphie auf Ein Ausstellungsbereich, der sowohl Literatur als auch Kampfkunst umfasst, zog eine große Anzahl von Fachpublikum und Medien an. Durch das elegante Spiel auf den elastischen Saiten demonstriert der S1 eine feine Bedienung und absolute Kontrolle mit Geschwindigkeit, Kraft und Präzision. CCTV News führte einen Sonderbericht über das Nachahmungslernen und die intelligente Steuerung hinter „Kalligraphie“ durch. Firmengründer Lai Jie erklärte, dass hinter den seidenweichen Bewegungen die Hardware-Seite die beste Kraftkontrolle und die menschenähnlichsten Körperindikatoren (Geschwindigkeit, Belastung) anstrebt. usw.), aber auf der KI-Seite werden die realen Bewegungsdaten von Menschen gesammelt, sodass der Roboter stärker werden kann, wenn er auf eine schwierige Situation stößt, und lernen kann, sich schnell weiterzuentwickeln. Und agil

Tiefe Integration von Vision und Roboterlernen. Wenn zwei Roboterhände reibungslos zusammenarbeiten, um Kleidung zu falten, Tee einzuschenken und Schuhe zu packen, gepaart mit dem humanoiden 1X-Roboter NEO, der in letzter Zeit für Schlagzeilen gesorgt hat, haben Sie vielleicht das Gefühl: Wir scheinen in das Zeitalter der Roboter einzutreten. Tatsächlich sind diese seidigen Bewegungen das Produkt fortschrittlicher Robotertechnologie + exquisitem Rahmendesign + multimodaler großer Modelle. Wir wissen, dass nützliche Roboter oft komplexe und exquisite Interaktionen mit der Umgebung erfordern und die Umgebung als Einschränkungen im räumlichen und zeitlichen Bereich dargestellt werden kann. Wenn Sie beispielsweise möchten, dass ein Roboter Tee einschenkt, muss der Roboter zunächst den Griff der Teekanne ergreifen und sie aufrecht halten, ohne den Tee zu verschütten, und ihn dann sanft bewegen, bis die Öffnung der Kanne mit der Öffnung der Tasse übereinstimmt , und neigen Sie dann die Teekanne in einem bestimmten Winkel. Das

Bei dieser ACL-Konferenz haben die Teilnehmer viel gewonnen. Die sechstägige ACL2024 findet in Bangkok, Thailand, statt. ACL ist die führende internationale Konferenz im Bereich Computerlinguistik und Verarbeitung natürlicher Sprache. Sie wird von der International Association for Computational Linguistics organisiert und findet jährlich statt. ACL steht seit jeher an erster Stelle, wenn es um akademischen Einfluss im Bereich NLP geht, und ist außerdem eine von der CCF-A empfohlene Konferenz. Die diesjährige ACL-Konferenz ist die 62. und hat mehr als 400 innovative Arbeiten im Bereich NLP eingereicht. Gestern Nachmittag gab die Konferenz den besten Vortrag und weitere Auszeichnungen bekannt. Diesmal gibt es 7 Best Paper Awards (zwei davon unveröffentlicht), 1 Best Theme Paper Award und 35 Outstanding Paper Awards. Die Konferenz verlieh außerdem drei Resource Paper Awards (ResourceAward) und einen Social Impact Award (

Heute Nachmittag begrüßte Hongmeng Zhixing offiziell neue Marken und neue Autos. Am 6. August veranstaltete Huawei die Hongmeng Smart Xingxing S9 und die Huawei-Konferenz zur Einführung neuer Produkte mit umfassendem Szenario und brachte die Panorama-Smart-Flaggschiff-Limousine Xiangjie S9, das neue M7Pro und Huawei novaFlip, MatePad Pro 12,2 Zoll, das neue MatePad Air und Huawei Bisheng mit Mit vielen neuen Smart-Produkten für alle Szenarien, darunter die Laserdrucker der X1-Serie, FreeBuds6i, WATCHFIT3 und der Smart Screen S5Pro, von Smart Travel über Smart Office bis hin zu Smart Wear baut Huawei weiterhin ein Smart-Ökosystem für alle Szenarien auf, um Verbrauchern ein Smart-Erlebnis zu bieten Internet von allem. Hongmeng Zhixing: Huawei arbeitet mit chinesischen Partnern aus der Automobilindustrie zusammen, um die Modernisierung der Smart-Car-Industrie voranzutreiben

Künstliche Intelligenz entwickelt sich schneller, als Sie sich vorstellen können. Seit GPT-4 die multimodale Technologie in die Öffentlichkeit gebracht hat, sind multimodale Großmodelle in eine Phase rasanter Entwicklung eingetreten, die sich allmählich von der reinen Modellforschung und -entwicklung hin zur Erforschung und Anwendung in vertikalen Bereichen verlagert und tief in alle Lebensbereiche integriert ist. Im Bereich der Schnittstelleninteraktion haben internationale Technologiegiganten wie Google und Apple in die Forschung und Entwicklung großer multimodaler UI-Modelle investiert, die als einziger Weg für die KI-Revolution im Mobiltelefon gelten. In diesem Zusammenhang wurde das erste groß angelegte UI-Modell in China geboren. Am 17. August stellte Motiff, ein Designtool im KI-Zeitalter, auf der IXDC2024 International Experience Design Conference sein unabhängig entwickeltes multimodales UI-Modell vor – das Motiff Model. Dies ist das weltweit erste UI-Design-Tool
