Inhaltsverzeichnis
02 Hochpräzise Positionierungstechnologie" >02 Hochpräzise Positionierungstechnologie
03 Entscheidungs- und Planungstechnologie" >03 Entscheidungs- und Planungstechnologie
04 Steuerungs- und Ausführungstechnologie " >04 Steuerungs- und Ausführungstechnologie
05 Zusammenfassung" >05 Zusammenfassung
Heim Technologie-Peripheriegeräte KI Ein Artikel, der die wichtigsten technischen Schwierigkeiten des autonomen Fahrens erläutert

Ein Artikel, der die wichtigsten technischen Schwierigkeiten des autonomen Fahrens erläutert

May 15, 2023 am 11:19 AM
技术 自动驾驶

Die American Society of Automotive Engineers unterteilt autonomes Fahren in sechs Stufen, L0-L5, basierend auf dem Grad der Fahrzeugintelligenz:

  • # 🎜🎜# L0 ist No Automation (NA), ein traditionelles Auto, bei dem der Fahrer alle Bedienaufgaben wie Lenken, Bremsen, Beschleunigen, Abbremsen oder Parken ausführt; 🎜#L1 ist ein Fahrassistent (DA), der dem Fahrer Fahrwarnungen oder -unterstützung bereitstellen kann, z. B. die Unterstützung einer Lenkradbetätigung oder der Beschleunigung und Verzögerung. Der Rest wird vom Fahrer bereitgestellt Bedienung;

  • L2 ist Teilautomatisierung (PA), das Fahrzeug führt mehrere Operationen am Lenkrad aus und sorgt für Beschleunigung und Verzögerung beim Fahren, und der Fahrer ist für andere Fahrvorgänge verantwortlich; Um die meisten Fahrvorgänge durchzuführen, muss sich der Fahrer auf die Vorbereitung auf Notfälle konzentrieren. Alle Fahrvorgänge werden vom Fahrzeug durchgeführt. Der Fahrer muss sich nicht konzentrieren, aber die Straßen- und Umgebungsbedingungen sind begrenzt.

  • L5 Bei der Vollautomatisierung (FA) führt das autonome Fahrsystem alle Fahrvorgänge unter allen Straßen- und Umgebungsbedingungen aus, ohne dass der Fahrer dies tun muss konzentrieren.



  • Die Software- und Hardwarearchitektur des Selbstfahrenden Das Auto ist in Abbildung 2 dargestellt. Wie gezeigt, ist es hauptsächlich in eine Schicht zur Umwelterkennung, eine Entscheidungs- und Planungsschicht, eine Kontrollschicht und eine Ausführungsschicht unterteilt. Die Umgebungserkennungsschicht (Wahrnehmungsschicht) erhält hauptsächlich Umgebungsinformationen und Fahrzeugstatusinformationen des Fahrzeugs über Sensoren wie Lidar, Millimeterwellenradar, Ultraschallradar, Fahrzeugkameras, Nachtsichtsysteme, GPS und Gyroskope, insbesondere einschließlich: Spurlinienerkennung, Verkehr Lichterkennung, Verkehrszeichenerkennung, Fußgängererkennung, Fahrzeugerkennung, Hinderniserkennung und Fahrzeugpositionierung usw.; die Entscheidungs- und Planungsebene ist in Aufgabenplanung, Verhaltensplanung und Flugbahnplanung unterteilt, basierend auf der festgelegten Routenplanung und der Umgebung . und den eigenen Status des Fahrzeugs, um die nächsten spezifischen Fahraufgaben (Spurhaltung, Spurwechsel, Verfolgung, Überholen, Kollisionsvermeidung usw.), Verhaltensweisen (Beschleunigung, Verzögerung, Abbiegen, Bremsen usw.) und Pfade (Fahrtrajektorien) zu planen. ; Kontrollschicht und Ausführung Die Schicht steuert das Fahren, Bremsen, Lenken usw. des Fahrzeugs basierend auf dem Fahrzeugdynamiksystemmodell, sodass das Fahrzeug der vorgeschriebenen Fahrbahn folgt.


  • Autonome Fahrtechnologie umfasst viele Schlüsseltechnologien. In diesem Artikel wird hauptsächlich die Umwelt vorgestellt . Wahrnehmungstechnik, hochpräzise Positionierungstechnik, Entscheidungs- und Planungstechnik sowie Steuerungs- und Ausführungstechnik.

01 Umgebungswahrnehmungstechnologie

Ein Artikel, der die wichtigsten technischen Schwierigkeiten des autonomen Fahrens erläutert

Umweltwahrnehmung bezieht sich auf die Fähigkeit, die Umgebung, beispielsweise Hindernisse, zu verstehen Sprachklassifizierung von Typen, Verkehrszeichen und -markierungen, Erkennung fahrender Fahrzeuge, Verkehrsinformationen und andere Daten. Positionierung ist die Nachverarbeitung der Wahrnehmungsergebnisse, die dem Fahrzeug hilft, seine Position relativ zu seiner Umgebung durch die Positionierungsfunktion zu verstehen. Die Umweltwahrnehmung erfordert die Gewinnung einer großen Menge an Umgebungsinformationen durch Sensoren, um ein korrektes Verständnis der Umgebung des Fahrzeugs zu gewährleisten und darauf basierend entsprechende Planungen und Entscheidungen zu treffen.

Zu den häufig verwendeten Umgebungswahrnehmungssensoren für autonome Fahrzeuge gehören: Kameras, Lidar, Millimeterwellenradar, Infrarot- und Ultraschallradar usw. Kameras sind das am häufigsten verwendete, einfachste und dem Abbildungsprinzip des menschlichen Auges am nächsten kommende Prinzip von Umgebungswahrnehmungssensoren für autonome Fahrzeuge. Durch die Erfassung der Umgebung des Fahrzeugs in Echtzeit wird die CV-Technologie zur Analyse der aufgenommenen Bilder eingesetzt, um Funktionen wie die Erkennung von Fahrzeugen und Fußgängern sowie die Erkennung von Verkehrszeichen rund um das Fahrzeug zu erreichen.

Ein Artikel, der die wichtigsten technischen Schwierigkeiten des autonomen Fahrens erläutert

Die Hauptvorteile der Kamera sind ihre hohe Auflösung und niedrige Kosten. Bei schlechtem Wetter wie Nacht, Regen, Schnee, Dunst usw. lässt die Leistung der Kamera jedoch schnell nach. Darüber hinaus ist die Entfernung, die die Kamera beobachten kann, begrenzt und für die Fernbeobachtung nicht geeignet.

Millimeterwellenradar ist auch ein häufig verwendeter Sensor für autonome Fahrzeuge. Millimeterwellenradar bezieht sich auf Radar, das im Millimeterwellenband (Wellenlänge 1–10 mm, Frequenzbereich 30–300 GHz) arbeitet Basierend auf der ToF-Technologie (Time of Flight) erkennt es Zielobjekte. Das Millimeterwellenradar sendet kontinuierlich Millimeterwellensignale an die Außenwelt und empfängt das vom Ziel zurückgegebene Signal. Es bestimmt die Entfernung zwischen dem Ziel und dem Fahrzeug anhand der Zeitdifferenz zwischen dem Senden und Empfangen des Signals. Daher wird Millimeterwellenradar hauptsächlich zur Vermeidung von Kollisionen zwischen Autos und umgebenden Objekten verwendet, z. B. zur Erkennung des toten Winkels, zur Unterstützung bei der Vermeidung von Hindernissen, zur Einparkhilfe, zur adaptiven Geschwindigkeitsregelung usw. Millimeterwellenradar verfügt über eine starke Entstörungsfähigkeit, und seine Fähigkeit, Regen, Sand, Staub, Rauch und Plasma zu durchdringen, ist viel stärker als Laser und Infrarot und kann bei jedem Wetter eingesetzt werden. Es weist jedoch auch Nachteile auf, wie z. B. große Signaldämpfung, leichte Blockierung durch Gebäude, menschliche Körper usw., kurze Übertragungsentfernung, geringe Auflösung und Schwierigkeiten bei der Bildgebung.

Lidar nutzt auch die ToF-Technologie, um den Zielort und die Entfernung zu bestimmen. LiDAR erkennt Ziele durch das Aussenden von Laserstrahlen und seine Erkennungsreichweite ist größer. Allerdings ist LiDAR anfälliger für Störungen durch Regen, Schnee, Dunst usw. in der Luft und seine hohen Kosten schränken es ebenfalls ein seine Anwendung. Fahrzeugmontierte Lidar-Geräte können entsprechend der Anzahl der emittierten Laserstrahlen in einzeilige, 4-zeilige, 8-zeilige, 16-zeilige und 64-zeilige Lidar-Geräte unterteilt werden. Anhand der folgenden Tabelle (Tabelle 1) können Sie die Vor- und Nachteile gängiger Sensoren vergleichen.

Ein Artikel, der die wichtigsten technischen Schwierigkeiten des autonomen Fahrens erläutert

Die Wahrnehmung der autonomen Fahrumgebung übernimmt normalerweise „schwache Wahrnehmung + Superintelligenz“ und die beiden großen technischen Wege „starke Wahrnehmung + starke Intelligenz“. Die Technologie „schwache Wahrnehmung + Superintelligenz“ basiert hauptsächlich auf Kameras und Deep-Learning-Technologie, um die Umgebungswahrnehmung zu erreichen, und nicht auf Lidar. Bei dieser Technologie wird davon ausgegangen, dass Menschen mit zwei Augen fahren können und dass sich das Auto auch auf Kameras verlassen kann, um die Umgebung klar zu sehen. Wenn es vorübergehend schwierig ist, Superintelligenz zu erreichen, ist es für das Erreichen des fahrerlosen Fahrens notwendig, die Wahrnehmungsfähigkeiten zu verbessern. Dies ist der sogenannte technische Weg „starke Wahrnehmung + starke Intelligenz“.

Verglichen mit der technischen Route „schwache Wahrnehmung + Superintelligenz“ ist das größte Merkmal der technischen Route „starke Wahrnehmung + starke Intelligenz“ die Hinzufügung eines Lidar-Sensors. Dadurch wird die Wahrnehmung deutlich verbessert. Tesla wählt den technischen Weg „schwache Intelligenz + Superintelligenz“, während Google Waymo, Baidu Apollo, Uber, Ford Motor und andere Unternehmen für künstliche Intelligenz, Reiseunternehmen und traditionelle Automobilhersteller alle den technischen Weg „starke Wahrnehmung + starke Intelligenz“ wählen.

02 Hochpräzise Positionierungstechnologie

Der Zweck der Positionierung besteht darin, die Positionierung des Autonomen zu erhalten Fahrzeug relativ zur äußeren Umgebung Die genaue Ortung ist eine wesentliche Grundlage für autonome Fahrzeuge. Beim Fahren auf komplexen Stadtstraßen erfordert die Positionierungsgenauigkeit einen Fehler von nicht mehr als 10 cm. Zum Beispiel: Nur wenn wir den Abstand zwischen dem Fahrzeug und der Kreuzung genau kennen, können wir genauere Vorhersagen und Vorbereitungen treffen. Nur durch die genaue Positionierung des Fahrzeugs können wir die Fahrspur bestimmen, auf der sich das Fahrzeug befindet. Wenn der Positionierungsfehler hoch ist, kann es zu einem vollständigen Verkehrsunfall kommen.

GPS ist derzeit die am weitesten verbreitete Ortungsmethode. Je höher die GPS-Genauigkeit, desto teurer ist der GPS-Sensor. Allerdings ist die aktuelle Positionierungsgenauigkeit der kommerziellen GPS-Technologie bei weitem nicht ausreichend. Ihre Genauigkeit liegt nur im Meterbereich und kann leicht durch Faktoren wie Tunnelbehinderung und Signalverzögerung beeinträchtigt werden. Um dieses Problem zu lösen, hat Qualcomm eine Vision-Enhanced-High-Precision-Positioning-Technologie (VEPP) entwickelt, die Informationen aus mehreren Automobilkomponenten wie der globalen GNSS-Navigation, Kameras, IMU-Trägheitsnavigation und gegenseitigen Radgeschwindigkeitssensoren integriert Fusion, um eine globale, fahrspurgenaue Echtzeitpositionierung zu erreichen.

03 Entscheidungs- und Planungstechnologie

Entscheidungsplanung ist einer der Schlüsselbestandteile des autonomen Fahrens Es führt zunächst Multisensorinformationen zusammen und trifft dann Aufgabenentscheidungen basierend auf den Fahranforderungen. Anschließend kann es mehrere sichere Wege zwischen zwei Punkten planen und dabei bestehende Hindernisse vermeiden und einen optimalen Weg unter diesen Wegen auswählen Die Fahrbahn des Fahrzeugs wird geplant. Je nach Unterteilungsebene kann es in zwei Arten unterteilt werden: Globale Planung und lokale Planung. Bei der globalen Planung geht es darum, auf der Grundlage der erhaltenen Karteninformationen einen kollisionsfreien optimalen Weg unter bestimmten Bedingungen zu planen. Beispielsweise gibt es viele Straßen von Shanghai nach Peking. Die Planung einer davon als Fahrroute ist die Gesamtplanung.

Statische Pfadplanungsalgorithmen wie Gittermethode, visuelle Diagrammmethode, Topologiemethode, Freiraummethode, neuronale Netzwerkmethode usw. Lokale Planung basiert auf globaler Planung und auf der Grundlage einiger lokaler Umweltinformationen ist es ein Prozess, der Kollisionen mit einigen unbekannten Hindernissen vermeiden und schließlich den Zielpunkt erreichen kann. Beispielsweise wird es auf der global geplanten Route von Shanghai nach Peking andere Fahrzeuge oder Hindernisse geben. Wenn Sie diesen Hindernissen oder Fahrzeugen ausweichen möchten, müssen Sie abbiegen und die Fahrspur anpassen. Zu den lokalen Pfadplanungsmethoden gehören: Methode des künstlichen Potenzialfelds, Methode des Vektordomänen-Histogramms, Methode des virtuellen Kraftfelds, genetischer Algorithmus und andere dynamische Pfadplanungsalgorithmen.

Die Entscheidungs- und Planungsebene ist das autonome Fahrsystem. Sie ist ein direktes Spiegelbild der Intelligenz und spielt eine entscheidende Rolle für die Fahrsicherheit des Fahrzeugs und des gesamten Fahrzeugs und reaktiv und eine Mischung aus beidem.

Die hierarchische progressive Architektur ist die Struktur eines Seriensystems. In diesem System ist die Ausgabe des vorherigen Moduls die Eingabe des nächsten Moduls wird als Wahrnehmungsplanungs-Aktionsstruktur bezeichnet. Allerdings ist die Zuverlässigkeit dieser Struktur nicht hoch. Sobald in einem bestimmten Modul ein Software- oder Hardwarefehler auftritt, wird der gesamte Informationsfluss beeinträchtigt und das gesamte System wird wahrscheinlich zusammenbrechen oder sogar lahmgelegt.

Ein Artikel, der die wichtigsten technischen Schwierigkeiten des autonomen Fahrens erläutert

Die reaktive Architektur nimmt eine parallele Struktur an. Die Kontrollschicht kann Entscheidungen direkt auf der Grundlage der Eingaben des Sensors treffen. die die wahrgenommenen Aktionen hervorheben können, geeignet für völlig unbekannte Umgebungen. Bei vielen Verhaltensweisen in der reaktiven Architektur handelt es sich hauptsächlich um einfache Spezialaufgaben, sodass Planung und Steuerung eng integriert werden können und der belegte Speicherplatz nicht groß ist, sodass schnelle Reaktionen und eine starke Echtzeitleistung erzielt werden können Gleichzeitig muss jede Schicht nur für ein bestimmtes Verhalten des Systems verantwortlich sein. Das gesamte System kann den Übergang von der niedrigen zur hohen Ebene bequem und flexibel realisieren. Darüber hinaus kann das verbleibende Modul einen unerwarteten Fehler aufweisen Ebenen können immer noch sinnvolle Ergebnisse liefern, die Robustheit des Systems wurde jedoch erheblich verbessert. Die Schwierigkeit besteht darin, dass aufgrund der Flexibilität der Aktionsausführung ein spezifischer Koordinationsmechanismus erforderlich ist, um die Konflikte zwischen den verschiedenen Regelkreisen zu lösen und sich darauf zu einigen die Behauptung des Aktors, um ein aussagekräftiges Ergebnis zu erhalten.

Ein Artikel, der die wichtigsten technischen Schwierigkeiten des autonomen Fahrens erläutert

Die Struktur des hierarchischen Systems und die Struktur des reaktiven Systems haben beide ihre eigenen Vor- und Nachteile, und es ist für sie schwierig, die komplexen und sich ändernden Anforderungen der Fahrumgebung allein zu erfüllen Immer mehr Branchenexperten haben damit begonnen, hybride Architekturen zu untersuchen und die Vorteile beider effektiv zu kombinieren, um hierarchische hierarchische Verhaltensweisen zu erzeugen, die durch Ziele auf der globalen Planungsebene und eine zielorientierte Suche auf der lokalen Planungsebene definiert werden .

Ein Artikel, der die wichtigsten technischen Schwierigkeiten des autonomen Fahrens erläutert

04 Steuerungs- und Ausführungstechnologie

Die Kernsteuerungstechnologie des autonomen Fahrens ist die Längssteuerung, Quersteuerung, Längssteuerung sowie Fahr- und Bremssteuerung des Fahrzeugs, und die Quersteuerung ist die Lenkung Rad Die Einstellung des Winkels und die Steuerung der Reifenkraft ermöglichen eine automatische Längs- und Quersteuerung, und der Fahrzeugbetrieb kann entsprechend vorgegebenen Zielen und Einschränkungen automatisch gesteuert werden.

Ein Artikel, der die wichtigsten technischen Schwierigkeiten des autonomen Fahrens erläutert

Die Längsregelung des Fahrzeugs ist die Regelung in Richtung der Fahrgeschwindigkeit, also die automatische Regelung der Fahrzeuggeschwindigkeit und des Abstands zwischen dem Fahrzeug und den vorausfahrenden oder dahinter liegenden Fahrzeugen bzw. Fahrzeugen Hindernisse. Tempomat und Notbremsassistent sind typische Beispiele für die Längsregelung beim autonomen Fahren. Bei dieser Art von Steuerungsproblem geht es um die Steuerung von Motorantrieben, Motoren, Getrieben und Bremssystemen. Verschiedene Motor-Motor-Getriebe-Modelle, Fahrzeugbetriebsmodelle und Bremsprozessmodelle werden mit unterschiedlichen Regleralgorithmen zu verschiedenen Längsregelungsmodi kombiniert.

Die seitliche Kontrolle des Fahrzeugs bezieht sich auf die Kontrolle senkrecht zur Bewegungsrichtung. Ziel ist es, das Auto so zu steuern, dass es automatisch die gewünschte Fahrroute beibehält und bei unterschiedlichen Fahrzeuggeschwindigkeiten, Lasten, Windwiderständen und Straßenbedingungen einen guten Fahrkomfort und eine gute Stabilität erreicht. Es gibt zwei grundlegende Entwurfsmethoden für die Fahrzeugquersteuerung. Eine basiert auf der Fahrersimulation (eine besteht darin, ein einfacheres Dynamikmodell und Fahrermanipulationsregeln zum Entwerfen des Controllers zu verwenden; die andere besteht darin, den Manipulationsprozess des Fahrers zu verwenden. Der Datentrainingscontroller erhält die Der andere ist eine Steuermethode, die das Modell der Querbewegungsmechanik des Fahrzeugs liefert (es muss ein genaues Modell der Querbewegung des Fahrzeugs erstellt werden. Ein typisches Modell ist beispielsweise ein Einspurmodell, das die Eigenschaften der linken und rechten Seite berücksichtigt

05 Zusammenfassung

Neben der oben vorgestellten Umgebungswahrnehmung, präzisen Positionierung, Entscheidungsplanung und Steuerungsausführung beinhalten autonome Fahrzeuge auch Schlüsseltechnologien wie hochpräzise Karten , V2X und autonome Fahrzeugtests. Autonome Fahrtechnologie ist eine Kombination aus künstlicher Intelligenz, Hochleistungschips, Kommunikationstechnologie, Sensortechnologie, Fahrzeugsteuerungstechnologie, Big-Data-Technologie und anderen Mehrfeldtechnologien. Die Technologie ist schwierig zu implementieren. Darüber hinaus ist es für die Umsetzung autonomer Fahrtechnologie erforderlich, grundlegende Transporteinrichtungen einzurichten, die den Anforderungen des autonomen Fahrens gerecht werden, und Gesetze und Vorschriften zum autonomen Fahren zu berücksichtigen.

Das obige ist der detaillierte Inhalt vonEin Artikel, der die wichtigsten technischen Schwierigkeiten des autonomen Fahrens erläutert. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Warum ist Gaussian Splatting beim autonomen Fahren so beliebt, dass NeRF allmählich aufgegeben wird? Warum ist Gaussian Splatting beim autonomen Fahren so beliebt, dass NeRF allmählich aufgegeben wird? Jan 17, 2024 pm 02:57 PM

Oben geschrieben und persönliches Verständnis des Autors. Dreidimensionales Gaussplatting (3DGS) ist eine transformative Technologie, die in den letzten Jahren in den Bereichen explizite Strahlungsfelder und Computergrafik entstanden ist. Diese innovative Methode zeichnet sich durch die Verwendung von Millionen von 3D-Gaußkurven aus, was sich stark von der Neural Radiation Field (NeRF)-Methode unterscheidet, die hauptsächlich ein implizites koordinatenbasiertes Modell verwendet, um räumliche Koordinaten auf Pixelwerte abzubilden. Mit seiner expliziten Szenendarstellung und differenzierbaren Rendering-Algorithmen garantiert 3DGS nicht nur Echtzeit-Rendering-Fähigkeiten, sondern führt auch ein beispielloses Maß an Kontrolle und Szenenbearbeitung ein. Dies positioniert 3DGS als potenziellen Game-Changer für die 3D-Rekonstruktion und -Darstellung der nächsten Generation. Zu diesem Zweck geben wir erstmals einen systematischen Überblick über die neuesten Entwicklungen und Anliegen im Bereich 3DGS.

Wie lässt sich das Long-Tail-Problem in autonomen Fahrszenarien lösen? Wie lässt sich das Long-Tail-Problem in autonomen Fahrszenarien lösen? Jun 02, 2024 pm 02:44 PM

Gestern wurde ich während des Interviews gefragt, ob ich irgendwelche Long-Tail-Fragen gestellt hätte, also dachte ich, ich würde eine kurze Zusammenfassung geben. Das Long-Tail-Problem des autonomen Fahrens bezieht sich auf Randfälle bei autonomen Fahrzeugen, also mögliche Szenarien mit geringer Eintrittswahrscheinlichkeit. Das wahrgenommene Long-Tail-Problem ist einer der Hauptgründe, die derzeit den betrieblichen Designbereich intelligenter autonomer Einzelfahrzeugfahrzeuge einschränken. Die zugrunde liegende Architektur und die meisten technischen Probleme des autonomen Fahrens wurden gelöst, und die verbleibenden 5 % der Long-Tail-Probleme wurden nach und nach zum Schlüssel zur Einschränkung der Entwicklung des autonomen Fahrens. Zu diesen Problemen gehören eine Vielzahl fragmentierter Szenarien, Extremsituationen und unvorhersehbares menschliches Verhalten. Der „Long Tail“ von Randszenarien beim autonomen Fahren bezieht sich auf Randfälle in autonomen Fahrzeugen (AVs). Randfälle sind mögliche Szenarien mit geringer Eintrittswahrscheinlichkeit. diese seltenen Ereignisse

Kamera oder Lidar wählen? Eine aktuelle Übersicht über die Erzielung einer robusten 3D-Objekterkennung Kamera oder Lidar wählen? Eine aktuelle Übersicht über die Erzielung einer robusten 3D-Objekterkennung Jan 26, 2024 am 11:18 AM

0. Vorab geschrieben&& Persönliches Verständnis, dass autonome Fahrsysteme auf fortschrittlichen Wahrnehmungs-, Entscheidungs- und Steuerungstechnologien beruhen, indem sie verschiedene Sensoren (wie Kameras, Lidar, Radar usw.) verwenden, um die Umgebung wahrzunehmen, und Algorithmen und Modelle verwenden für Echtzeitanalysen und Entscheidungsfindung. Dies ermöglicht es Fahrzeugen, Verkehrszeichen zu erkennen, andere Fahrzeuge zu erkennen und zu verfolgen, das Verhalten von Fußgängern vorherzusagen usw. und sich so sicher an komplexe Verkehrsumgebungen anzupassen. Diese Technologie erregt derzeit große Aufmerksamkeit und gilt als wichtiger Entwicklungsbereich für die Zukunft des Transportwesens . eins. Aber was autonomes Fahren schwierig macht, ist herauszufinden, wie man dem Auto klarmachen kann, was um es herum passiert. Dies erfordert, dass der dreidimensionale Objekterkennungsalgorithmus im autonomen Fahrsystem Objekte in der Umgebung, einschließlich ihrer Standorte, genau wahrnehmen und beschreiben kann.

Das Stable Diffusion 3-Papier wird endlich veröffentlicht und die architektonischen Details werden enthüllt. Wird es helfen, Sora zu reproduzieren? Das Stable Diffusion 3-Papier wird endlich veröffentlicht und die architektonischen Details werden enthüllt. Wird es helfen, Sora zu reproduzieren? Mar 06, 2024 pm 05:34 PM

Der Artikel von StableDiffusion3 ist endlich da! Dieses Modell wurde vor zwei Wochen veröffentlicht und verwendet die gleiche DiT-Architektur (DiffusionTransformer) wie Sora. Nach seiner Veröffentlichung sorgte es für großes Aufsehen. Im Vergleich zur Vorgängerversion wurde die Qualität der von StableDiffusion3 generierten Bilder erheblich verbessert. Es unterstützt jetzt Eingabeaufforderungen mit mehreren Themen, und der Textschreibeffekt wurde ebenfalls verbessert, und es werden keine verstümmelten Zeichen mehr angezeigt. StabilityAI wies darauf hin, dass es sich bei StableDiffusion3 um eine Reihe von Modellen mit Parametergrößen von 800 M bis 8 B handelt. Durch diesen Parameterbereich kann das Modell direkt auf vielen tragbaren Geräten ausgeführt werden, wodurch der Einsatz von KI deutlich reduziert wird

Dieser Artikel reicht aus, um etwas über autonomes Fahren und Flugbahnvorhersage zu lesen! Dieser Artikel reicht aus, um etwas über autonomes Fahren und Flugbahnvorhersage zu lesen! Feb 28, 2024 pm 07:20 PM

Die Trajektorienvorhersage spielt eine wichtige Rolle beim autonomen Fahren. Unter autonomer Fahrtrajektorienvorhersage versteht man die Vorhersage der zukünftigen Fahrtrajektorie des Fahrzeugs durch die Analyse verschiedener Daten während des Fahrvorgangs. Als Kernmodul des autonomen Fahrens ist die Qualität der Trajektorienvorhersage von entscheidender Bedeutung für die nachgelagerte Planungssteuerung. Die Trajektorienvorhersageaufgabe verfügt über einen umfangreichen Technologie-Stack und erfordert Vertrautheit mit der dynamischen/statischen Wahrnehmung des autonomen Fahrens, hochpräzisen Karten, Fahrspurlinien, Fähigkeiten in der neuronalen Netzwerkarchitektur (CNN&GNN&Transformer) usw. Der Einstieg ist sehr schwierig! Viele Fans hoffen, so schnell wie möglich mit der Flugbahnvorhersage beginnen zu können und Fallstricke zu vermeiden. Heute werde ich eine Bestandsaufnahme einiger häufiger Probleme und einführender Lernmethoden für die Flugbahnvorhersage machen! Einführungsbezogenes Wissen 1. Sind die Vorschaupapiere in Ordnung? A: Schauen Sie sich zuerst die Umfrage an, S

SIMPL: Ein einfacher und effizienter Multi-Agent-Benchmark zur Bewegungsvorhersage für autonomes Fahren SIMPL: Ein einfacher und effizienter Multi-Agent-Benchmark zur Bewegungsvorhersage für autonomes Fahren Feb 20, 2024 am 11:48 AM

Originaltitel: SIMPL: ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving Paper-Link: https://arxiv.org/pdf/2402.02519.pdf Code-Link: https://github.com/HKUST-Aerial-Robotics/SIMPL Autor: Hong Kong University of Science und Technologie DJI-Papieridee: Dieses Papier schlägt eine einfache und effiziente Bewegungsvorhersagebasislinie (SIMPL) für autonome Fahrzeuge vor. Im Vergleich zum herkömmlichen Agent-Cent

nuScenes' neuestes SOTA |. SparseAD: Sparse-Abfrage hilft effizientes durchgängiges autonomes Fahren! nuScenes' neuestes SOTA |. SparseAD: Sparse-Abfrage hilft effizientes durchgängiges autonomes Fahren! Apr 17, 2024 pm 06:22 PM

Vorab geschrieben und Ausgangspunkt Das End-to-End-Paradigma verwendet ein einheitliches Framework, um Multitasking in autonomen Fahrsystemen zu erreichen. Trotz der Einfachheit und Klarheit dieses Paradigmas bleibt die Leistung von End-to-End-Methoden für das autonome Fahren bei Teilaufgaben immer noch weit hinter Methoden für einzelne Aufgaben zurück. Gleichzeitig erschweren die in früheren End-to-End-Methoden weit verbreiteten Funktionen der dichten Vogelperspektive (BEV) die Skalierung auf mehr Modalitäten oder Aufgaben. Hier wird ein Sparse-Search-zentriertes End-to-End-Paradigma für autonomes Fahren (SparseAD) vorgeschlagen, bei dem die Sparse-Suche das gesamte Fahrszenario, einschließlich Raum, Zeit und Aufgaben, ohne dichte BEV-Darstellung vollständig abbildet. Insbesondere ist eine einheitliche, spärliche Architektur für die Aufgabenerkennung einschließlich Erkennung, Verfolgung und Online-Zuordnung konzipiert. Zudem schwer

Sprechen wir über End-to-End- und autonome Fahrsysteme der nächsten Generation sowie über einige Missverständnisse über End-to-End-Autonomes Fahren? Sprechen wir über End-to-End- und autonome Fahrsysteme der nächsten Generation sowie über einige Missverständnisse über End-to-End-Autonomes Fahren? Apr 15, 2024 pm 04:13 PM

Im vergangenen Monat hatte ich aus bekannten Gründen einen sehr intensiven Austausch mit verschiedenen Lehrern und Mitschülern der Branche. Ein unvermeidliches Thema im Austausch ist natürlich End-to-End und der beliebte Tesla FSDV12. Ich möchte diese Gelegenheit nutzen, einige meiner aktuellen Gedanken und Meinungen als Referenz und Diskussion darzulegen. Wie definiert man ein durchgängiges autonomes Fahrsystem und welche Probleme sollten voraussichtlich durchgängig gelöst werden? Gemäß der traditionellsten Definition bezieht sich ein End-to-End-System auf ein System, das Rohinformationen von Sensoren eingibt und für die Aufgabe relevante Variablen direkt ausgibt. Bei der Bilderkennung kann CNN beispielsweise als End-to-End bezeichnet werden, verglichen mit der herkömmlichen Methode zum Extrahieren von Merkmalen + Klassifizieren. Bei autonomen Fahraufgaben werden Eingabedaten verschiedener Sensoren (Kamera/LiDAR) benötigt

See all articles