


Experimentelle Studie zur Radar-Kamera-Fusion über Datensätze hinweg unter BEV
Originaltitel: Cross-Dataset Experimental Study of Radar-Camera Fusion in Bird's-Eye View
Link zum Papier: https://arxiv.org/pdf/2309.15465.pdf
Autorenzugehörigkeit: Opel Automobile GmbH Rheinland-Pfalzische Technische Universität Kaiserslautern- Deutsches Forschungszentrum für Künstliche Intelligenz Landau
Thesisidee:
Durch die Nutzung komplementärer Sensorinformationen haben Millimeterwellenradar- und Kamerafusionssysteme das Potenzial, hochrobuste und autonome Fahrfunktionen für fortschrittliche Fahrerassistenzsysteme bereitzustellen Autonome Fahrfunktionen. Zuverlässiges Sensorsystem. Jüngste Fortschritte bei der kamerabasierten Objekterkennung bieten neue Möglichkeiten für die Fusion von Millimeterwellenradar und Kameras, die Feature-Maps aus der Vogelperspektive für die Fusion nutzen können. Diese Studie schlägt ein neuartiges und flexibles Fusionsnetzwerk vor und bewertet seine Leistung anhand von zwei Datensätzen (nuScenes und View-of-Delft). Experimentelle Ergebnisse zeigen, dass der Kamerazweig zwar große und vielfältige Trainingsdaten erfordert, der Millimeterwellenradarzweig jedoch stärker von Hochleistungs-Millimeterwellenradar profitiert. Durch Transferlernen verbessert diese Studie die Kameraleistung bei kleineren Datensätzen. Die Forschungsergebnisse zeigen außerdem, dass die Fusionsmethode von Millimeterwellenradar und Kamera deutlich besser ist als die Basismethode, bei der nur Kamera oder nur Millimeterwellenradar verwendet werden die Merkmale von Bildern Konvertieren in eine gängige Vogelperspektive (BEV)-Darstellung. Diese Darstellung bietet eine flexible Fusionsarchitektur, die zwischen mehreren Kameras oder mithilfe von Entfernungssensoren fusioniert werden kann. In dieser Arbeit erweitern wir die BEVFusion-Methode, die ursprünglich für die Laserkamerafusion verwendet wurde, für die Millimeterwellen-Radarkamerafusion. Wir haben unsere vorgeschlagene Fusionsmethode anhand eines ausgewählten Millimeterwellenradardatensatzes trainiert und bewertet. In mehreren Experimenten diskutieren wir die Vor- und Nachteile jedes Datensatzes. Abschließend wenden wir Transferlernen an, um weitere Verbesserungen zu erzielen
Hier ist, was neu geschrieben werden muss: Abbildung 1 zeigt das BEV-Millimeterwellen-Radar-Kamera-Fusionsflussdiagramm basierend auf BEVFusion. In das generierte Kamerabild beziehen wir die Erkennungsergebnisse des projizierten Millimeterwellenradars und des realen Begrenzungsrahmens einDieser Artikel folgt der Fusionsarchitektur von BEVFusion. Abbildung 1 zeigt die Netzwerkübersicht der Millimeterwellen-Radar-Kamera-Fusion im BEV in diesem Artikel. Beachten Sie, dass die Fusion erfolgt, wenn die Kamera- und Millimeterwellenradarsignaturen am BEV verbunden werden. Nachfolgend finden Sie in diesem Artikel weitere Details zu jedem Block.
Der Inhalt, der neu geschrieben werden muss, ist: A. Kamera-Encoder und Kamera-zu-BEV-Ansichtstransformation
Der Kamera-Encoder und die Ansichtstransformation übernehmen die Idee von [15], einem flexiblen Framework, das beliebige externe Kameras extrahieren kann und Bild-BEV-Funktionen interner Parameter. Zunächst werden mithilfe eines Tiny-Swin-Transformer-Netzwerks Merkmale aus jedem Bild extrahiert. Als nächstes verwendet dieser Artikel die Lift- und Splat-Schritte von [14], um die Merkmale des Bildes in die BEV-Ebene umzuwandeln. Zu diesem Zweck folgt auf die dichte Tiefenvorhersage ein regelbasierter Block, in dem Merkmale in Pseudopunktwolken umgewandelt, gerastert und in einem BEV-Gitter akkumuliert werden.
Radar Column Feature Encoder
Der Zweck dieses Blocks besteht darin, die Millimeterwellen-Radarpunktwolke in BEV-Features im gleichen Raster wie die Bild-BEV-Features zu codieren. Zu diesem Zweck nutzt dieser Artikel die Pillar-Feature-Encoding-Technologie von [16], um die Punktwolke in unendlich hohe Voxel, die sogenannte Säule, zu rastern.
Der Inhalt, der neu geschrieben werden muss, ist: C. BEV-Encoder
Ähnlich wie [5] werden die BEV-Funktionen von Millimeterwellenradar und -kameras durch Kaskadenfusion erreicht. Die fusionierten Merkmale werden von einem gemeinsamen Faltungs-BEV-Encoder verarbeitet, sodass das Netzwerk räumliche Fehlausrichtungen berücksichtigen und die Synergie zwischen verschiedenen Modalitäten nutzen kann Karte. Weitere Regressionsköpfe sagen die Größe, Rotation und Höhe von Objekten sowie die Geschwindigkeits- und Klasseneigenschaften von nuScenes voraus. Die Wärmekarte wird mithilfe des Gaußschen Fokusverlusts trainiert, und die übrigen Erkennungsköpfe werden mithilfe des L1-Verlusts trainiert. Experimentelle Ergebnisse:
Zitat:
Stäcker, L., Heidenreich, P., Rambach, J., & Stricker, D. (2023). „Eine datensatzübergreifende experimentelle Studie der Radar-Kamera-Fusion aus der Vogelperspektive“ . ArXiv. / abs/2309.15465
Der Inhalt, der neu geschrieben werden muss, ist: https://mp.weixin.qq.com/s/5mA5up5a4KJO2PBwUcuIdQ
Das obige ist der detaillierte Inhalt vonExperimentelle Studie zur Radar-Kamera-Fusion über Datensätze hinweg unter BEV. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



DDREASE ist ein Tool zum Wiederherstellen von Daten von Datei- oder Blockgeräten wie Festplatten, SSDs, RAM-Disks, CDs, DVDs und USB-Speichergeräten. Es kopiert Daten von einem Blockgerät auf ein anderes, wobei beschädigte Blöcke zurückbleiben und nur gute Blöcke verschoben werden. ddreasue ist ein leistungsstarkes Wiederherstellungstool, das vollständig automatisiert ist, da es während der Wiederherstellungsvorgänge keine Unterbrechungen erfordert. Darüber hinaus kann es dank der ddasue-Map-Datei jederzeit gestoppt und fortgesetzt werden. Weitere wichtige Funktionen von DDREASE sind: Es überschreibt die wiederhergestellten Daten nicht, füllt aber die Lücken im Falle einer iterativen Wiederherstellung. Es kann jedoch gekürzt werden, wenn das Tool explizit dazu aufgefordert wird. Stellen Sie Daten aus mehreren Dateien oder Blöcken in einer einzigen wieder her

0.Was bewirkt dieser Artikel? Wir schlagen DepthFM vor: ein vielseitiges und schnelles generatives monokulares Tiefenschätzungsmodell auf dem neuesten Stand der Technik. Zusätzlich zu herkömmlichen Tiefenschätzungsaufgaben demonstriert DepthFM auch hochmoderne Fähigkeiten bei nachgelagerten Aufgaben wie dem Tiefen-Inpainting. DepthFM ist effizient und kann Tiefenkarten innerhalb weniger Inferenzschritte synthetisieren. Lassen Sie uns diese Arbeit gemeinsam lesen ~ 1. Titel der Papierinformationen: DepthFM: FastMonocularDepthEstimationwithFlowMatching Autor: MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

Gestern wurde ich während des Interviews gefragt, ob ich irgendwelche Long-Tail-Fragen gestellt hätte, also dachte ich, ich würde eine kurze Zusammenfassung geben. Das Long-Tail-Problem des autonomen Fahrens bezieht sich auf Randfälle bei autonomen Fahrzeugen, also mögliche Szenarien mit geringer Eintrittswahrscheinlichkeit. Das wahrgenommene Long-Tail-Problem ist einer der Hauptgründe, die derzeit den betrieblichen Designbereich intelligenter autonomer Einzelfahrzeugfahrzeuge einschränken. Die zugrunde liegende Architektur und die meisten technischen Probleme des autonomen Fahrens wurden gelöst, und die verbleibenden 5 % der Long-Tail-Probleme wurden nach und nach zum Schlüssel zur Einschränkung der Entwicklung des autonomen Fahrens. Zu diesen Problemen gehören eine Vielzahl fragmentierter Szenarien, Extremsituationen und unvorhersehbares menschliches Verhalten. Der „Long Tail“ von Randszenarien beim autonomen Fahren bezieht sich auf Randfälle in autonomen Fahrzeugen (AVs). Randfälle sind mögliche Szenarien mit geringer Eintrittswahrscheinlichkeit. diese seltenen Ereignisse

Die von Google geförderte Leistung von JAX hat in jüngsten Benchmark-Tests die von Pytorch und TensorFlow übertroffen und belegt bei 7 Indikatoren den ersten Platz. Und der Test wurde nicht auf der TPU mit der besten JAX-Leistung durchgeführt. Obwohl unter Entwicklern Pytorch immer noch beliebter ist als Tensorflow. Aber in Zukunft werden möglicherweise mehr große Modelle auf Basis der JAX-Plattform trainiert und ausgeführt. Modelle Kürzlich hat das Keras-Team drei Backends (TensorFlow, JAX, PyTorch) mit der nativen PyTorch-Implementierung und Keras2 mit TensorFlow verglichen. Zunächst wählen sie eine Reihe von Mainstream-Inhalten aus

Stehen Sie vor einer Verzögerung oder einer langsamen mobilen Datenverbindung auf dem iPhone? Normalerweise hängt die Stärke des Mobilfunk-Internets auf Ihrem Telefon von mehreren Faktoren ab, wie z. B. der Region, dem Mobilfunknetztyp, dem Roaming-Typ usw. Es gibt einige Dinge, die Sie tun können, um eine schnellere und zuverlässigere Mobilfunk-Internetverbindung zu erhalten. Fix 1 – Neustart des iPhone erzwingen Manchmal werden durch einen erzwungenen Neustart Ihres Geräts viele Dinge zurückgesetzt, einschließlich der Mobilfunkverbindung. Schritt 1 – Drücken Sie einfach einmal die Lauter-Taste und lassen Sie sie los. Drücken Sie anschließend die Leiser-Taste und lassen Sie sie wieder los. Schritt 2 – Der nächste Teil des Prozesses besteht darin, die Taste auf der rechten Seite gedrückt zu halten. Lassen Sie das iPhone den Neustart abschließen. Aktivieren Sie Mobilfunkdaten und überprüfen Sie die Netzwerkgeschwindigkeit. Überprüfen Sie es erneut. Fix 2 – Datenmodus ändern 5G bietet zwar bessere Netzwerkgeschwindigkeiten, funktioniert jedoch besser, wenn das Signal schwächer ist

Ich weine zu Tode. Die Daten im Internet reichen überhaupt nicht aus. Das Trainingsmodell sieht aus wie „Die Tribute von Panem“, und KI-Forscher auf der ganzen Welt machen sich Gedanken darüber, wie sie diese datenhungrigen Esser ernähren sollen. Dieses Problem tritt insbesondere bei multimodalen Aufgaben auf. Zu einer Zeit, als sie ratlos waren, nutzte ein Start-up-Team der Abteilung der Renmin-Universität von China sein eigenes neues Modell, um als erstes in China einen „modellgenerierten Datenfeed selbst“ in die Realität umzusetzen. Darüber hinaus handelt es sich um einen zweigleisigen Ansatz auf der Verständnisseite und der Generierungsseite. Beide Seiten können hochwertige, multimodale neue Daten generieren und Datenrückmeldungen an das Modell selbst liefern. Was ist ein Modell? Awaker 1.0, ein großes multimodales Modell, das gerade im Zhongguancun-Forum erschienen ist. Wer ist das Team? Sophon-Motor. Gegründet von Gao Yizhao, einem Doktoranden an der Hillhouse School of Artificial Intelligence der Renmin University.

Vorab geschrieben und Ausgangspunkt Das End-to-End-Paradigma verwendet ein einheitliches Framework, um Multitasking in autonomen Fahrsystemen zu erreichen. Trotz der Einfachheit und Klarheit dieses Paradigmas bleibt die Leistung von End-to-End-Methoden für das autonome Fahren bei Teilaufgaben immer noch weit hinter Methoden für einzelne Aufgaben zurück. Gleichzeitig erschweren die in früheren End-to-End-Methoden weit verbreiteten Funktionen der dichten Vogelperspektive (BEV) die Skalierung auf mehr Modalitäten oder Aufgaben. Hier wird ein Sparse-Search-zentriertes End-to-End-Paradigma für autonomes Fahren (SparseAD) vorgeschlagen, bei dem die Sparse-Suche das gesamte Fahrszenario, einschließlich Raum, Zeit und Aufgaben, ohne dichte BEV-Darstellung vollständig abbildet. Insbesondere ist eine einheitliche, spärliche Architektur für die Aufgabenerkennung einschließlich Erkennung, Verfolgung und Online-Zuordnung konzipiert. Zudem schwer

Kürzlich wurde die Militärwelt von der Nachricht überwältigt: US-Militärkampfflugzeuge können jetzt mithilfe von KI vollautomatische Luftkämpfe absolvieren. Ja, erst kürzlich wurde der KI-Kampfjet des US-Militärs zum ersten Mal der Öffentlichkeit zugänglich gemacht und sein Geheimnis gelüftet. Der vollständige Name dieses Jägers lautet „Variable Stability Simulator Test Aircraft“ (VISTA). Er wurde vom Minister der US-Luftwaffe persönlich geflogen, um einen Eins-gegen-eins-Luftkampf zu simulieren. Am 2. Mai startete US-Luftwaffenminister Frank Kendall mit einer X-62AVISTA auf der Edwards Air Force Base. Beachten Sie, dass während des einstündigen Fluges alle Flugaktionen autonom von der KI durchgeführt wurden! Kendall sagte: „In den letzten Jahrzehnten haben wir über das unbegrenzte Potenzial des autonomen Luft-Luft-Kampfes nachgedacht, aber es schien immer unerreichbar.“ Nun jedoch,
