Die Positionierung nimmt beim autonomen Fahren eine unersetzliche Stellung ein und es gibt vielversprechende Entwicklungen für die Zukunft. Derzeit basiert die Positionierung beim autonomen Fahren auf RTK und hochpräzisen Karten, was die Implementierung des autonomen Fahrens mit hohen Kosten und Schwierigkeiten verbunden macht. Stellen Sie sich vor, dass Menschen beim Fahren ihre eigene globale hochpräzise Positionierung und die detaillierte Umgebung nicht kennen müssen. Es reicht aus, einen globalen Navigationspfad zu haben und die Position des Fahrzeugs auf dem Pfad anzupassen SLAM-Schlüsseltechnologien.
SLAM (Simultaneous Localization and Mapping), auch bekannt als CML (Concurrent Mapping and Localization), Echtzeitpositionierung und Kartenkonstruktion oder gleichzeitige Zuordnung und Positionierung. Das Problem kann wie folgt beschrieben werden: Platzieren Sie einen Roboter an einem unbekannten Ort in einer unbekannten Umgebung. Gibt es eine Möglichkeit für den Roboter, nach und nach eine vollständige Karte der Umgebung zu zeichnen und dabei zu entscheiden, in welche Richtung sich der Roboter bewegen soll? Beispielsweise ist ein Kehrroboter ein sehr typisches SLAM-Problem. Die sogenannte vollständige Karte (eine konsistente Karte) bedeutet, dass er ohne Hindernisse in jede zugängliche Ecke des Raums fahren kann.
SLAM wurde erstmals 1988 von Smith, Self und Cheeseman vorgeschlagen. Aufgrund seines wichtigen theoretischen und praktischen Werts wird es von vielen Wissenschaftlern als Schlüssel zur Verwirklichung eines wirklich vollständig autonomen mobilen Roboters angesehen.
Wenn simulierte Menschen in eine fremde Umgebung kommen, sollten sie Folgendes der Reihe nach tun, um sich schnell mit der Umgebung vertraut zu machen und ihre Aufgaben zu erledigen (z. B. ein Restaurant finden, ein Hotel finden):
a. Beobachten Sie die Umgebung mit Ihren Augen, Sehenswürdigkeiten wie Gebäude, große Bäume, Blumenbeete usw., und merken Sie sich deren Eigenschaften (Merkmalsextraktion)
b. Rekonstruieren Sie die charakteristischen Orientierungspunkte in der dreidimensionalen Karte (dreidimensionale Rekonstruktion)
c Erfassen Sie beim Gehen ständig neue Orientierungspunkte und korrigieren Sie das Kartenmodell in Ihrem Kopf (Bündelanpassung oder EKF)
d. Bestimmen Sie anhand der Merkmale, die Sie durch das Gehen vor einiger Zeit erhalten haben, Ihre Position (Flugbahn).
e Wenn Sie unbeabsichtigt eine lange Strecke zurückgelegt haben, vergleichen Sie sie mit den vorherigen Orientierungspunkten in Ihrem Kopf auf den ursprünglichen Pfad zurückgeführt (Loop-Closure-Erkennung). In Wirklichkeit ist dieser Schritt optional. Die oben genannten fünf Schritte werden gleichzeitig ausgeführt, es handelt sich also um eine gleichzeitige Lokalisierung und Kartierung.
Die derzeit in SLAM verwendeten Sensoren werden hauptsächlich in zwei Kategorien unterteilt: Lidar und Kameras. LiDAR kann in einzeilige und mehrzeilige Typen mit unterschiedlicher Winkelauflösung und Genauigkeit unterteilt werden.
VSLAM wird hauptsächlich mit Kameras implementiert. Es gibt viele Arten von Kameras, die hauptsächlich in monokulares, binokulares, monokulares strukturiertes Licht, binokulares strukturiertes Licht und ToF unterteilt sind. Ihr Kern besteht darin, RGB und Tiefenkarten (Tiefeninformationen) zu erhalten. Aufgrund der Auswirkungen auf die Herstellungskosten erfreut sich visuelles SLAM in den letzten Jahren immer größerer Beliebtheit. Auch die Echtzeitkartierung und -positionierung durch kostengünstige Kameras ist technisch sehr schwierig. Nehmen Sie als Beispiel ToF (Time of Flight), eine vielversprechende Tiefenerfassungsmethode.
Der Sensor sendet moduliertes Nahinfrarotlicht aus, das reflektiert wird, wenn es auf ein Objekt trifft. Der Sensor berechnet die Zeitdifferenz oder Phasendifferenz zwischen Lichtemission und Reflexion, um die Entfernung der fotografierten Szene umzuwandeln und Tiefeninformationen zu generieren. Ähnlich wie Radar oder stellen Sie sich eine Fledermaus vor, verwendet der DS325 von Softkinetic eine ToF-Lösung (entworfen von TI). Allerdings ist die Mikrostruktur des Empfängers mit zwei oder mehr Verschlüssen relativ speziell und kann Zeitunterschiede im ps-Bereich messen. Die Pixelgröße beträgt jedoch normalerweise 100 µm, sodass die aktuelle Auflösung nicht hoch ist.
Nachdem die Tiefenkarte erhalten wurde, beginnt der SLAM-Algorithmus zu arbeiten. Aufgrund unterschiedlicher Sensoren und Anforderungen unterscheidet sich die Darstellungsform von SLAM geringfügig. Es kann grob in Laser-SLAM (auch in 2D und 3D unterteilt) und visuelles SLAM (auch in Sparse, SemiDense, Dense unterteilt) unterteilt werden, die Grundideen sind jedoch ähnlich.
SLAM-Technologie ist sehr praktisch, aber auch ziemlich schwierig. Im Bereich des autonomen Fahrens, das jederzeit eine präzise Positionierung erfordert, ist es auch schwierig, SLAM zu implementieren. Im Allgemeinen berücksichtigt der SLAM-Algorithmus bei der Implementierung hauptsächlich die folgenden vier Aspekte:
1. Kartendarstellungsprobleme wie dicht und spärlich sind unterschiedliche Ausdrücke davon. Dies muss entsprechend den tatsächlichen Szenenanforderungen ausgewählt werden
2. Das Sichtfeld der RGBD-Kamera ist normalerweise kleiner, das Problem der Datenzuordnung, verschiedener Sensordatentypen und Koordinaten Systeme haben unterschiedliche Ausdrücke und müssen einheitlich verarbeitet werden.
4 Positionierungs- und Kompositionsprobleme beziehen sich auf die Art und Weise, wie eine Posenschätzung und -modellierung erreicht wird, was viele mathematische Probleme, die Erstellung physikalischer Modelle, die Zustandsschätzung und die Optimierung umfasst Probleme, Erkundungsprobleme (Exploration) und Entführungsprobleme (Entführung).
Das derzeit beliebte visuelle SLAM-Framework umfasst hauptsächlich Front-End und Back-End:
Front-End
Das Front-End entspricht VO (visuelle Odometrie). untersucht die Transformationsbeziehung zwischen Frames.
Extrahieren Sie zunächst die Merkmalspunkte jedes Bildrahmens, verwenden Sie benachbarte Rahmenbilder, um die Merkmalspunkte abzugleichen, verwenden Sie dann RANSAC, um großes Rauschen zu entfernen, und führen Sie dann einen Abgleich durch, um Poseinformationen (Position und Haltung) zu erhalten Gleichzeitig können Sie IMU (Inertial) verwenden. Die Back-End-Filterung und Fusion der von der Messeinheit (Trägheitsmesseinheit) bereitgestellten Lageinformationen optimiert hauptsächlich die Front-End-Ergebnisse mithilfe der Filtertheorie (EKF, UKF, PF) oder der Optimierungstheorie TORO und G2O zur Optimierung von Bäumen oder Diagrammen. Schließlich wird die optimale Posenschätzung erhalten.
Backend
Das Backend hat mehr Schwierigkeiten und erfordert mehr mathematisches Wissen. Im Allgemeinen hat jeder die traditionelle Filtertheorie langsam aufgegeben und sich der Diagrammoptimierung zugewandt.
Denn basierend auf der Filtertheorie steigt die Filterstabilität zu schnell an, was großen Druck auf den PF für EKF (Extended Kalman Filter) ausübt, der eine häufige Umkehrung erfordert.
Graph-basiertes SLAM basiert normalerweise auf Keyframes, um mehrere Knoten und relative Transformationsbeziehungen zwischen Knoten, wie z. B. affine Transformationsmatrizen, einzurichten und Schlüsselknoten kontinuierlich zu pflegen, um sicherzustellen, dass die Kapazität des Diagramms den Rechenaufwand reduziert und gleichzeitig die Genauigkeit gewährleistet .
Die zukünftige Anwendung von SLAM im Bereich des autonomen Fahrens
Mit der schrittweisen Verbesserung der Sensorgenauigkeit wird SLAM auch im Bereich des autonomen Fahrens seine Talente unter Beweis stellen und dem autonomen Fahren revolutionäre Vorteile bringen. Da die SLAM-Technologie immer beliebter wird, strömen immer mehr Positionierungstalente in den Bereich des autonomen Fahrens, bringen frischen Wind in das autonome Fahren und bringen neue technische Richtungen und Forschungsbereiche mit sich.
Das obige ist der detaillierte Inhalt vonEin Artikel über die Anwendung der SLAM-Technologie beim autonomen Fahren. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!