


Drei Schlüssel zum Erreichen eines autonomen Fahrens auf höchstem Niveau im Rahmen des Trends der Multisensorfusion
Um die Umgebung genauer zu erfassen und Leistungsredundanz zu bieten, sind autonome Fahrzeuge mit einer großen Anzahl ergänzender Sensoren ausgestattet, darunter Millimeterwellenradar, Kameras, Lidar, Infrarot-Wärmebildkamera, Ultraschallradar usw. Um die jeweiligen Vorteile verschiedener Sensoren voll auszuschöpfen, müssen sich intelligente Fahrwahrnehmungssysteme der Spitzenklasse zwangsläufig in Richtung einer umfassenden Fusion mehrerer Sensoren weiterentwickeln.
Durch die Fusion mehrerer Sensoren kann das autonome Fahrsystem ein genaueres Ergebnismodell erhalten und dadurch die Sicherheit und Zuverlässigkeit des autonomen Fahrsystems verbessern. Beispielsweise kann Millimeterwellenradar die Nachteile von Kameras ausgleichen, die von Regentagen betroffen sind, und relativ weit entfernte Hindernisse erkennen, aber Lidar kann die Nachteile von Millimeterwellenradaren ausgleichen. Wellenradar, das die spezifische Form von Hindernissen nicht erkennen kann. Um die von verschiedenen Sensoren gesammelten externen Daten zu fusionieren und dem Controller eine Entscheidungsgrundlage zu bieten, ist es daher erforderlich, den Multisensor-Fusionsalgorithmus zu verarbeiten, um eine Panoramawahrnehmung zu erzeugen.
Das Folgende ist eine Einführung in die drei Schlüsselsensoren für autonomes Fahren auf hohem Niveau: 4D-Millimeterwellenradar, Lidar und Infrarot-Wärmebildgebung.
4D-Millimeterwellenradar
Millimeterwellenradar gilt als der früheste Sensor, der in der Massenproduktion des autonomen Fahrens eingesetzt wird. Obwohl die Genauigkeit nicht so hoch ist wie bei Lidar, liegt sie unter vielen immer noch auf einem hohen Niveau Sensorkategorien und ist für Nebel geeignet. Die Durchdringungsfähigkeit von Rauch und Staub ist extrem stark und die Gesamtleistung ist unter schwierigen Wetterbedingungen besser. Er dient hauptsächlich als Entfernungs- und Geschwindigkeitssensor. Derzeit ist die Zahl der an Fahrrädern installierten Millimeterwellenradargeräte noch auf einem niedrigen Niveau. Von Januar bis August 2022 wurden neue Personenkraftwagen mit nur 0,86-Millimeter-Wellenradaren pro Fahrzeug ausgeliefert.
Das soll nicht heißen, dass die Leistung des herkömmlichen Millimeterwellenradars nicht hervorragend ist. Bei Fahrzeugen der Stufe L2+ ist die stabile Punktwolkenerfassung durch die hohe Auflösung des Millimeterwellenradars der Schlüssel zur 360°-Umgebungswahrnehmung des Fahrzeugs . Dies reicht jedoch nicht aus. Bei L3-, L4- und höheren Modellen sind die Wahrnehmungsgenauigkeit und der Fusionseffekt stark verringert. Da in diesem Jahr mit dem Einbau von 4D-Millimeterwellenradaren in Fahrzeuge begonnen wird, wird 2023 das Jahr sein, in dem die groß angelegte Massenproduktion von Frontfahrzeugen tatsächlich beginnt. Laut der Prognose von Yelo wird der weltweite Markt für 4D-Millimeterwellenradar bis 2027 3,5 Milliarden US-Dollar erreichen.
Derzeit erfolgt die Anwendung des 4D-Bildgebungsradars auf dem Markt hauptsächlich in zwei Richtungen. Die eine besteht darin, das herkömmliche Vorwärtsradar mit niedriger Auflösung zu ersetzen, um der Verbesserung der multisensorischen Fusionsleistung des intelligenten High-End-Fahrens gerecht zu werden. Das zweite Hauptanwendungsszenario ist das in Fahrt und Parken integrierte hochauflösende 4D-Surround-Radar (unterteilt in Punktwolkenverstärkung und Bildgebung), dessen Leistung etwas geringer sein wird als die des Vorwärtsradars.
Lidar
Seit diesem Jahr ist „Lidar auf dem Auto“ das neueste „Label“ für Automobilintelligenz auf der Guangzhou Auto Show, darunter Xpeng G9, WM7, Nezha S und Salon Machine An Zahlreiche Automodelle, wie zum Beispiel Ankylosaurus, sind mit Lidar ausgestattet. Im Vergleich zu gewöhnlichem Radar bietet Lidar die Vorteile einer hohen Auflösung, einer guten Verschleierung und einer starken Anti-Interferenz-Fähigkeit. Es wird mit den „Augen“ autonomer Fahrzeuge verglichen und ist der Schlüssel dazu Die Umsetzung des autonomen Fahrens realisieren Die letzte Meile ist ein äußerst wichtiger Teil der Reise.
Lidar bietet unersetzliche Vorteile beim autonomen Fahren auf hohem Niveau, das strenge Anforderungen an die Informationsgenauigkeit stellt. Ob neue Automobilhersteller, traditionelle OEMs oder Internetunternehmen – sie alle treffen derzeit Vorkehrungen, was zu einem plötzlichen Anstieg der Nachfrage nach Lidar-Produktionskapazitäten geführt hat. Laut Statistiken von Zuosi Auto Research wird das Installationsvolumen von Lidar in neuen inländischen Personenkraftwagen im ersten Halbjahr 2022 24.700 erreichen; in der zweiten Hälfte des Jahres 2022 werden mehr als 10 neue Lidar-Autos ausgeliefert, darunter Xpeng G9 und WM7 usw. wird die Anzahl der Lidars im Fahrzeug erheblich erhöhen, und das insgesamt installierte Volumen wird im Laufe des Jahres voraussichtlich 80.000 Einheiten überschreiten.
Infrarot-Wärmebildgebung
Im Vergleich zu herkömmlichem CIS und Lidar bietet die Infrarot-Wärmebildgebung offensichtliche Vorteile in verschiedenen Szenarien wie hohem Dynamikbereich, Regentagen, Nebeltagen, dunklem Licht und Sandstürmen usw. und der Einführung Die Entwicklung automatisierter Fahrlösungen auf hohem Niveau ist ein unvermeidlicher Trend. Infrarot-Wärmebildgeräte mit integrierten Infrarotdetektoren eignen sich besonders zur Erkennung von Fußgängern und anderen unbelebten Hindernissen, da sie Wärme erkennen können. Sie haben Vorteile, die andere Sensoren nicht haben. Sie werden nicht durch Regen, Nebel, Dunst und Lichtverhältnisse beeinträchtigt Der Beobachtungsabstand kann bis zu mehreren hundert Metern betragen. In naher Zukunft wird er einen Platz im Bereich des autonomen Fahrens einnehmen.
Der Hauptgrund dafür, dass sich die Infrarot-Wärmebildkamera bisher nicht „an Bord“ durchsetzen konnte, war, dass der Preis weiterhin hoch war. In den letzten Jahren sind mit der Lokalisierung wichtiger Rohstoffe wie Infrarot-Wärmebildchips die Kosten gesunken, und sie wurden im zivilen Bereich weit verbreitet. Autonomes Fahren wird den Markt für Infrarotdetektoren schnell erweitern. Daten des China Research Institute of Industrial Research zeigen, dass Chinas Markt für Infrarot-Wärmebildkameras im Jahr 2020 6,68 Milliarden US-Dollar erreichen wird und im Jahr 2021 voraussichtlich weiterhin mit einer durchschnittlichen jährlichen Wachstumsrate von 10,8 % wachsen wird Die Marktgröße für Infrarot-Wärmebildkameras wird im Jahr 2025 12,34 Milliarden US-Dollar erreichen.
Fazit: Autonome Fahrlösungen mit Multisensor-Fusion sind ein unvermeidlicher Trend in der zukünftigen Automobilentwicklung. Die Fusion mehrerer Sensorinformationen kann die Einschränkungen eines einzelnen Sensors ausgleichen und die Sicherheitsredundanz und Datenzuverlässigkeit des autonomen Fahrsystems verbessern. Allerdings verfügt jeder Sensor über unterschiedliche Koordinatensysteme, unterschiedliche Datenformen und sogar unterschiedliche Erfassungsfrequenzen, sodass der Entwurf des Fusionsalgorithmus keine einfache Aufgabe ist.
Das obige ist der detaillierte Inhalt vonDrei Schlüssel zum Erreichen eines autonomen Fahrens auf höchstem Niveau im Rahmen des Trends der Multisensorfusion. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Oben geschrieben und persönliches Verständnis des Autors. Dreidimensionales Gaussplatting (3DGS) ist eine transformative Technologie, die in den letzten Jahren in den Bereichen explizite Strahlungsfelder und Computergrafik entstanden ist. Diese innovative Methode zeichnet sich durch die Verwendung von Millionen von 3D-Gaußkurven aus, was sich stark von der Neural Radiation Field (NeRF)-Methode unterscheidet, die hauptsächlich ein implizites koordinatenbasiertes Modell verwendet, um räumliche Koordinaten auf Pixelwerte abzubilden. Mit seiner expliziten Szenendarstellung und differenzierbaren Rendering-Algorithmen garantiert 3DGS nicht nur Echtzeit-Rendering-Fähigkeiten, sondern führt auch ein beispielloses Maß an Kontrolle und Szenenbearbeitung ein. Dies positioniert 3DGS als potenziellen Game-Changer für die 3D-Rekonstruktion und -Darstellung der nächsten Generation. Zu diesem Zweck geben wir erstmals einen systematischen Überblick über die neuesten Entwicklungen und Anliegen im Bereich 3DGS.

Samsung hat am 17. Juli offiziell die nationale Version des Samsung Galaxy Ring zum Preis von 2.999 Yuan veröffentlicht. Das echte Telefon des Galaxy Ring ist wirklich die 2024-Version von „WowAwesome, das ist mein exklusiver Moment“. Es ist das elektronische Produkt, das uns in den letzten Jahren das frischeste Gefühl gibt (obwohl es wie eine Flagge klingt). (Im Bild sind die Ringe links und rechts Galaxy Ring ↑) Samsung Galaxy Ring-Spezifikationen (Daten von der offiziellen Website der Bank of China): ZephyrRTOS-System, 8 MB wasserdicht + IP68; Batteriekapazität 18 mAh mAh (verschiedene Größen

Gestern wurde ich während des Interviews gefragt, ob ich irgendwelche Long-Tail-Fragen gestellt hätte, also dachte ich, ich würde eine kurze Zusammenfassung geben. Das Long-Tail-Problem des autonomen Fahrens bezieht sich auf Randfälle bei autonomen Fahrzeugen, also mögliche Szenarien mit geringer Eintrittswahrscheinlichkeit. Das wahrgenommene Long-Tail-Problem ist einer der Hauptgründe, die derzeit den betrieblichen Designbereich intelligenter autonomer Einzelfahrzeugfahrzeuge einschränken. Die zugrunde liegende Architektur und die meisten technischen Probleme des autonomen Fahrens wurden gelöst, und die verbleibenden 5 % der Long-Tail-Probleme wurden nach und nach zum Schlüssel zur Einschränkung der Entwicklung des autonomen Fahrens. Zu diesen Problemen gehören eine Vielzahl fragmentierter Szenarien, Extremsituationen und unvorhersehbares menschliches Verhalten. Der „Long Tail“ von Randszenarien beim autonomen Fahren bezieht sich auf Randfälle in autonomen Fahrzeugen (AVs). Randfälle sind mögliche Szenarien mit geringer Eintrittswahrscheinlichkeit. diese seltenen Ereignisse

0. Vorab geschrieben&& Persönliches Verständnis, dass autonome Fahrsysteme auf fortschrittlichen Wahrnehmungs-, Entscheidungs- und Steuerungstechnologien beruhen, indem sie verschiedene Sensoren (wie Kameras, Lidar, Radar usw.) verwenden, um die Umgebung wahrzunehmen, und Algorithmen und Modelle verwenden für Echtzeitanalysen und Entscheidungsfindung. Dies ermöglicht es Fahrzeugen, Verkehrszeichen zu erkennen, andere Fahrzeuge zu erkennen und zu verfolgen, das Verhalten von Fußgängern vorherzusagen usw. und sich so sicher an komplexe Verkehrsumgebungen anzupassen. Diese Technologie erregt derzeit große Aufmerksamkeit und gilt als wichtiger Entwicklungsbereich für die Zukunft des Transportwesens . eins. Aber was autonomes Fahren schwierig macht, ist herauszufinden, wie man dem Auto klarmachen kann, was um es herum passiert. Dies erfordert, dass der dreidimensionale Objekterkennungsalgorithmus im autonomen Fahrsystem Objekte in der Umgebung, einschließlich ihrer Standorte, genau wahrnehmen und beschreiben kann.

Kürzlich wurden auf Weibo neue Neuigkeiten zum iPhone SE4 enthüllt. Es heißt, dass der Backcover-Prozess des iPhone SE4 genau derselbe ist wie der der iPhone 16-Standardversion. Mit anderen Worten, das iPhone SE4 wird eine Glasrückwand verwenden gerader Bildschirm und gerades Kantendesign. Es wird berichtet, dass das iPhone SE4 vor September dieses Jahres auf den Markt kommen wird, was bedeutet, dass es wahrscheinlich gleichzeitig mit dem iPhone 16 vorgestellt wird. 1. Den belichteten Renderings zufolge ähnelt das Frontdesign des iPhone SE4 dem des iPhone 13, mit einer Frontkamera und einem FaceID-Sensor auf dem Notch-Bildschirm. Die Rückseite weist ein ähnliches Layout wie das iPhoneXr auf, verfügt jedoch nur über eine Kamera und kein umfassendes Kameramodul.

Im gestrigen Artikel wurde die „Sensorgröße“ nicht erwähnt. Ich hatte nicht erwartet, dass es so viele Missverständnisse geben würde ... Wie viel ist 1 Zoll? Aufgrund einiger historischer Probleme* beträgt „1 Zoll“ in der Diagonalenlänge des Sensors nicht 25,4 mm, unabhängig davon, ob es sich um eine Kamera oder ein Mobiltelefon handelt. *Bei Vakuumröhren gibt es hier keine Ausdehnung. Es ist ein bisschen so, als ob der Hintern eines Pferdes über die Breite einer Eisenbahnschiene entscheidet. Um Missverständnisse zu vermeiden, lautet die strengere Schreibweise „Typ 1.0“ oder „Typ 1.0“. Wenn die Sensorgröße außerdem kleiner als 1/2 Typ ist, ist Typ 1 = 18 mm, und wenn die Sensorgröße größer oder gleich 1/2 Typ ist, ist Typ 1 =

Die Trajektorienvorhersage spielt eine wichtige Rolle beim autonomen Fahren. Unter autonomer Fahrtrajektorienvorhersage versteht man die Vorhersage der zukünftigen Fahrtrajektorie des Fahrzeugs durch die Analyse verschiedener Daten während des Fahrvorgangs. Als Kernmodul des autonomen Fahrens ist die Qualität der Trajektorienvorhersage von entscheidender Bedeutung für die nachgelagerte Planungssteuerung. Die Trajektorienvorhersageaufgabe verfügt über einen umfangreichen Technologie-Stack und erfordert Vertrautheit mit der dynamischen/statischen Wahrnehmung des autonomen Fahrens, hochpräzisen Karten, Fahrspurlinien, Fähigkeiten in der neuronalen Netzwerkarchitektur (CNN&GNN&Transformer) usw. Der Einstieg ist sehr schwierig! Viele Fans hoffen, so schnell wie möglich mit der Flugbahnvorhersage beginnen zu können und Fallstricke zu vermeiden. Heute werde ich eine Bestandsaufnahme einiger häufiger Probleme und einführender Lernmethoden für die Flugbahnvorhersage machen! Einführungsbezogenes Wissen 1. Sind die Vorschaupapiere in Ordnung? A: Schauen Sie sich zuerst die Umfrage an, S

Originaltitel: SIMPL: ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving Paper-Link: https://arxiv.org/pdf/2402.02519.pdf Code-Link: https://github.com/HKUST-Aerial-Robotics/SIMPL Autor: Hong Kong University of Science und Technologie DJI-Papieridee: Dieses Papier schlägt eine einfache und effiziente Bewegungsvorhersagebasislinie (SIMPL) für autonome Fahrzeuge vor. Im Vergleich zum herkömmlichen Agent-Cent
