


Horizon veröffentlicht den Open-Source-Algorithmus Sparse4D und kommt damit dem durchgängigen autonomen Fahren einen Schritt näher
Am 22. Januar wird Horizon die Sparse4D-Reihe rein visueller Algorithmen für autonomes Fahren als Open Source veröffentlichen, um mehr Entwickler in der Branche zu ermutigen, sich an der Erforschung modernster Technologierichtungen wie durchgängiges autonomes Fahren und spärliche Wahrnehmung zu beteiligen. Derzeit wurde der Sparse4D-Algorithmus auf der GitHub-Plattform gestartet. Entwickler können dem offiziellen Horizon GitHub-Konto „Horizon Robotics“ folgen, um den Quellcode zu erhalten.
Sparse4D ist eine Reihe von Algorithmen zur langfristigen spärlichen 3D-Zielerkennung, die zur Kategorie der temporalen Multi-View-Fusion-Sensing-Technologie gehört. Angesichts des Branchenentwicklungstrends zur spärlichen Wahrnehmung hat Sparse4D ein reines Sparse-Fusion-Wahrnehmungsframework entwickelt, um den Wahrnehmungsalgorithmus effizienter und präziser zu gestalten und das Wahrnehmungssystem einfacher zu gestalten. Im Vergleich zum dichten BEV-Algorithmus reduziert Sparse4D die Rechenkomplexität, durchbricht die Beschränkung der Rechenleistung auf den Wahrnehmungsbereich und übertrifft den dichten BEV-Algorithmus in Bezug auf Wahrnehmungseffekt und Argumentationsgeschwindigkeit. Sowohl in der rein visuellen 3D-Erkennungs- als auch in der 3D-Tracking-Liste von nuScenes belegte Sparse4D den ersten Platz und wurde SOTA, vor den neuesten Methoden wie SOLOFusion, BEVFormer v2 und StreamPETR.
Sparse4D-Algorithmus-Architektur
Nach drei Iterationsversionen hat das Horizon Sparse4D-Team technische Probleme wie die Verbesserung der Leistung des Sparse-Algorithmus, die Reduzierung der Komplexität der zeitlichen Fusionsberechnung und das Erreichen von End-to- erfolgreich überwunden. Zielverfolgung beenden. Kürzlich haben sie einen Artikel mit dem Titel „Sparse4D v3: Advancing End-to-End 3D Detection and Tracking“ veröffentlicht, in dem sie ihre Forschungsergebnisse detailliert beschreiben. Durch die Verwendung von Horizon-Geschäftsdaten zur Leistungsüberprüfung hat das Sparse4D-Team die Computerlösung Horizon Journey 5 erfolgreich implementiert. Künftig soll die Sparse4D-Technologie den Plänen zufolge in den Produkten der nächsten Generation von Horizon zum Einsatz kommen. Das Erreichen dieses Ergebnisses wird die Entwicklung von Horizon weiter vorantreiben.
Dr. Yu Yinan, Vizepräsident von Horizon und Präsident der Softwareplattform-Produktlinie, wies darauf hin, dass die aktuelle Branche in die Ära der End-to-End-Erkennung eingetreten ist und nur ein Netzwerk die gesamte Erfassung vervollständigen kann Aufgabe. Er glaubt, dass die Algorithmen der Sparse4D-Reihe die Leistung von Sparse-Algorithmen auf ein neues Niveau verbessert und erfolgreich eine durchgängige Verfolgung mehrerer Ziele erreicht haben. Dies ist sowohl für die spärliche Wahrnehmung als auch für das durchgängig autonome Fahren von großer Bedeutung und kann als Meilenstein bezeichnet werden. Horizon hat sich entschieden, Sparse4D als Open-Source-Lösung für die gesamte Branche bereitzustellen, in der Hoffnung, gemeinsam mit herausragenden Entwicklern der Branche Fortschritte zu erzielen.
Vergleich zwischen traditionellem Wahrnehmungssystem und End-to-End-Wahrnehmungssystem
Ein weiteres Beispiel für die aktive Beteiligung von Horizon am Aufbau eines Open-Source-Software-Ökosystems für intelligentes Fahren ist die Open-Source-Algorithmenreihe Sparse4D . Dieser Algorithmus hat großes Anwendungspotenzial bei der Umsetzung rein visuellen, durchgängig autonomen Fahrens. Darüber hinaus verfügt Horizon auch über führende Open-Source-Technologien wie den VAD-Algorithmus und den MapTR-Algorithmus, die die Entwicklung der Branche weiter vorantreiben werden. Es wird erwartet, dass der Sparse4D-Algorithmus breite Aufmerksamkeit und Verwendung bei Branchenentwicklern finden wird. Die kontinuierlichen Bemühungen von Horizon werden den Entwicklungsprozess der Branche beschleunigen.
Horizon verfolgt das Konzept, unabhängig innovative Technologien, bahnbrechende Produkte und Lösungen in den kommerziellen Wert ökologischer Partner in der Smart-Car-Industrie umzuwandeln und so der Entwicklung der Branche Vitalität zu verleihen. Durch enge Zusammenarbeit, offene Integration und kooperative Innovation mit allen Parteien der Branche ist Horizon bestrebt, die Quelle lebendigen Wassers für das Ökosystem der intelligenten Automobilindustrie zu werden und ihm nachhaltige Entwicklungsimpulse zu verleihen. Horizon ist sich voll und ganz bewusst, dass die Massenproduktion autonomen Fahrens einen wichtigen Durchbruch darstellt. Daher werden wir weiterhin Open Source nutzen und die Implementierung und Massenproduktion modernster Technologien beschleunigen. Wir sind fest davon überzeugt, dass die Zukunft der Win-Win-Zusammenarbeit mit der Branche umfassender sein wird, und Horizon wird weiterhin hart daran arbeiten, zum Wohlstand der Smart-Car-Industrie beizutragen.
Das obige ist der detaillierte Inhalt vonHorizon veröffentlicht den Open-Source-Algorithmus Sparse4D und kommt damit dem durchgängigen autonomen Fahren einen Schritt näher. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Oben geschrieben und persönliches Verständnis des Autors. Dreidimensionales Gaussplatting (3DGS) ist eine transformative Technologie, die in den letzten Jahren in den Bereichen explizite Strahlungsfelder und Computergrafik entstanden ist. Diese innovative Methode zeichnet sich durch die Verwendung von Millionen von 3D-Gaußkurven aus, was sich stark von der Neural Radiation Field (NeRF)-Methode unterscheidet, die hauptsächlich ein implizites koordinatenbasiertes Modell verwendet, um räumliche Koordinaten auf Pixelwerte abzubilden. Mit seiner expliziten Szenendarstellung und differenzierbaren Rendering-Algorithmen garantiert 3DGS nicht nur Echtzeit-Rendering-Fähigkeiten, sondern führt auch ein beispielloses Maß an Kontrolle und Szenenbearbeitung ein. Dies positioniert 3DGS als potenziellen Game-Changer für die 3D-Rekonstruktion und -Darstellung der nächsten Generation. Zu diesem Zweck geben wir erstmals einen systematischen Überblick über die neuesten Entwicklungen und Anliegen im Bereich 3DGS.

Gestern wurde ich während des Interviews gefragt, ob ich irgendwelche Long-Tail-Fragen gestellt hätte, also dachte ich, ich würde eine kurze Zusammenfassung geben. Das Long-Tail-Problem des autonomen Fahrens bezieht sich auf Randfälle bei autonomen Fahrzeugen, also mögliche Szenarien mit geringer Eintrittswahrscheinlichkeit. Das wahrgenommene Long-Tail-Problem ist einer der Hauptgründe, die derzeit den betrieblichen Designbereich intelligenter autonomer Einzelfahrzeugfahrzeuge einschränken. Die zugrunde liegende Architektur und die meisten technischen Probleme des autonomen Fahrens wurden gelöst, und die verbleibenden 5 % der Long-Tail-Probleme wurden nach und nach zum Schlüssel zur Einschränkung der Entwicklung des autonomen Fahrens. Zu diesen Problemen gehören eine Vielzahl fragmentierter Szenarien, Extremsituationen und unvorhersehbares menschliches Verhalten. Der „Long Tail“ von Randszenarien beim autonomen Fahren bezieht sich auf Randfälle in autonomen Fahrzeugen (AVs). Randfälle sind mögliche Szenarien mit geringer Eintrittswahrscheinlichkeit. diese seltenen Ereignisse

0. Vorab geschrieben&& Persönliches Verständnis, dass autonome Fahrsysteme auf fortschrittlichen Wahrnehmungs-, Entscheidungs- und Steuerungstechnologien beruhen, indem sie verschiedene Sensoren (wie Kameras, Lidar, Radar usw.) verwenden, um die Umgebung wahrzunehmen, und Algorithmen und Modelle verwenden für Echtzeitanalysen und Entscheidungsfindung. Dies ermöglicht es Fahrzeugen, Verkehrszeichen zu erkennen, andere Fahrzeuge zu erkennen und zu verfolgen, das Verhalten von Fußgängern vorherzusagen usw. und sich so sicher an komplexe Verkehrsumgebungen anzupassen. Diese Technologie erregt derzeit große Aufmerksamkeit und gilt als wichtiger Entwicklungsbereich für die Zukunft des Transportwesens . eins. Aber was autonomes Fahren schwierig macht, ist herauszufinden, wie man dem Auto klarmachen kann, was um es herum passiert. Dies erfordert, dass der dreidimensionale Objekterkennungsalgorithmus im autonomen Fahrsystem Objekte in der Umgebung, einschließlich ihrer Standorte, genau wahrnehmen und beschreiben kann.

Der erste Pilot- und Schlüsselartikel stellt hauptsächlich mehrere häufig verwendete Koordinatensysteme in der autonomen Fahrtechnologie vor und erläutert, wie die Korrelation und Konvertierung zwischen ihnen abgeschlossen und schließlich ein einheitliches Umgebungsmodell erstellt werden kann. Der Schwerpunkt liegt hier auf dem Verständnis der Umrechnung vom Fahrzeug in den starren Kamerakörper (externe Parameter), der Kamera-in-Bild-Konvertierung (interne Parameter) und der Bild-in-Pixel-Einheitenkonvertierung. Die Konvertierung von 3D in 2D führt zu entsprechenden Verzerrungen, Verschiebungen usw. Wichtige Punkte: Das Fahrzeugkoordinatensystem und das Kamerakörperkoordinatensystem müssen neu geschrieben werden: Das Ebenenkoordinatensystem und das Pixelkoordinatensystem. Schwierigkeit: Sowohl die Entzerrung als auch die Verzerrungsaddition müssen auf der Bildebene kompensiert werden. 2. Einführung Insgesamt gibt es vier visuelle Systeme Koordinatensystem: Pixelebenenkoordinatensystem (u, v), Bildkoordinatensystem (x, y), Kamerakoordinatensystem () und Weltkoordinatensystem (). Es gibt eine Beziehung zwischen jedem Koordinatensystem,

Die Trajektorienvorhersage spielt eine wichtige Rolle beim autonomen Fahren. Unter autonomer Fahrtrajektorienvorhersage versteht man die Vorhersage der zukünftigen Fahrtrajektorie des Fahrzeugs durch die Analyse verschiedener Daten während des Fahrvorgangs. Als Kernmodul des autonomen Fahrens ist die Qualität der Trajektorienvorhersage von entscheidender Bedeutung für die nachgelagerte Planungssteuerung. Die Trajektorienvorhersageaufgabe verfügt über einen umfangreichen Technologie-Stack und erfordert Vertrautheit mit der dynamischen/statischen Wahrnehmung des autonomen Fahrens, hochpräzisen Karten, Fahrspurlinien, Fähigkeiten in der neuronalen Netzwerkarchitektur (CNN&GNN&Transformer) usw. Der Einstieg ist sehr schwierig! Viele Fans hoffen, so schnell wie möglich mit der Flugbahnvorhersage beginnen zu können und Fallstricke zu vermeiden. Heute werde ich eine Bestandsaufnahme einiger häufiger Probleme und einführender Lernmethoden für die Flugbahnvorhersage machen! Einführungsbezogenes Wissen 1. Sind die Vorschaupapiere in Ordnung? A: Schauen Sie sich zuerst die Umfrage an, S

Originaltitel: SIMPL: ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving Paper-Link: https://arxiv.org/pdf/2402.02519.pdf Code-Link: https://github.com/HKUST-Aerial-Robotics/SIMPL Autor: Hong Kong University of Science und Technologie DJI-Papieridee: Dieses Papier schlägt eine einfache und effiziente Bewegungsvorhersagebasislinie (SIMPL) für autonome Fahrzeuge vor. Im Vergleich zum herkömmlichen Agent-Cent

Vorab geschrieben und Ausgangspunkt Das End-to-End-Paradigma verwendet ein einheitliches Framework, um Multitasking in autonomen Fahrsystemen zu erreichen. Trotz der Einfachheit und Klarheit dieses Paradigmas bleibt die Leistung von End-to-End-Methoden für das autonome Fahren bei Teilaufgaben immer noch weit hinter Methoden für einzelne Aufgaben zurück. Gleichzeitig erschweren die in früheren End-to-End-Methoden weit verbreiteten Funktionen der dichten Vogelperspektive (BEV) die Skalierung auf mehr Modalitäten oder Aufgaben. Hier wird ein Sparse-Search-zentriertes End-to-End-Paradigma für autonomes Fahren (SparseAD) vorgeschlagen, bei dem die Sparse-Suche das gesamte Fahrszenario, einschließlich Raum, Zeit und Aufgaben, ohne dichte BEV-Darstellung vollständig abbildet. Insbesondere ist eine einheitliche, spärliche Architektur für die Aufgabenerkennung einschließlich Erkennung, Verfolgung und Online-Zuordnung konzipiert. Zudem schwer

Im vergangenen Monat hatte ich aus bekannten Gründen einen sehr intensiven Austausch mit verschiedenen Lehrern und Mitschülern der Branche. Ein unvermeidliches Thema im Austausch ist natürlich End-to-End und der beliebte Tesla FSDV12. Ich möchte diese Gelegenheit nutzen, einige meiner aktuellen Gedanken und Meinungen als Referenz und Diskussion darzulegen. Wie definiert man ein durchgängiges autonomes Fahrsystem und welche Probleme sollten voraussichtlich durchgängig gelöst werden? Gemäß der traditionellsten Definition bezieht sich ein End-to-End-System auf ein System, das Rohinformationen von Sensoren eingibt und für die Aufgabe relevante Variablen direkt ausgibt. Bei der Bilderkennung kann CNN beispielsweise als End-to-End bezeichnet werden, verglichen mit der herkömmlichen Methode zum Extrahieren von Merkmalen + Klassifizieren. Bei autonomen Fahraufgaben werden Eingabedaten verschiedener Sensoren (Kamera/LiDAR) benötigt
