Maison Périphériques technologiques IA Ajout du comportement réel des agents au simulateur de conduite autonome CARLA

Ajout du comportement réel des agents au simulateur de conduite autonome CARLA

Apr 08, 2023 pm 02:11 PM
自动驾驶

Article arXiv "Insertion des comportements d'agents réels dans le simulateur de conduite autonome CARLA", 22 juin, Espagne.

Ajout du comportement réel des agents au simulateur de conduite autonome CARLA

Le rôle de la simulation dans la conduite autonome devient de plus en plus important en raison de la nécessité d'un prototypage rapide et de tests approfondis. La simulation basée sur la physique offre de multiples avantages à un coût raisonnable tout en éliminant les risques pour le prototypage, les conducteurs et les Usagers vulnérables de la route (VRU).

Cependant, il existe deux limitations principales. Premièrement, l’écart de réalité bien connu fait référence à la différence entre la réalité et la simulation qui empêche les expériences de conduite autonome simulées d’atteindre des performances efficaces dans le monde réel. Deuxièmement, il existe un manque de connaissances empiriques sur le comportement des agents réels (les humains), y compris les conducteurs ou passagers de secours et les autres usagers de la route tels que les véhicules, les piétons ou les cyclistes.

Les simulations d'agents sont généralement préprogrammées, aléatoires ou générées sur la base de données réelles, mais ne représentent pas le comportement d'agents réels interagissant avec des scénarios de simulation spécifiques. Cet article propose un cadre préliminaire qui permet une interaction en temps réel entre des agents réels et des environnements simulés, y compris des véhicules autonomes, et génère des données de séquence synthétiques à partir de capteurs simulés sur plusieurs vues pour former des systèmes prédictifs reposant sur des modèles comportementaux.

Cette approche intègre des systèmes immersifs de réalité virtuelle (VR) et de capture de mouvement humain (HMC) avec CARLA pour la conduite autonome. Il décrit l'architecture matérielle et logicielle et discute de ce que l'on appelle l'écart comportemental.

Comme le montre la figure, un aperçu de la méthode : (1) CARLA-UE est équipé de poses de tête (casque VR) et de corps (système de capture de mouvement). (2) Générez des scènes incluant des véhicules autonomes et des piétons numériques. (3) Fournir un environnement aux piétons (via des casques VR). (4) Les capteurs automatiques des véhicules détectent l’environnement, y compris les piétons.

Ajout du comportement réel des agents au simulateur de conduite autonome CARLA

Ce qui suit présente les fonctions du système VR immersif dans le simulateur de conduite autonome CARLA.

Obtenez une immersion totale pour les piétons en menant des études comportementales et interactives en utilisant les capacités fournies par UE4 et du matériel externe tel que des lunettes VR et un ensemble de capteurs de mouvement.

Le simulateur open source CARLA est implémenté sur UE4, qui offre un rendu de haute qualité, des environnements physiques réalistes et un écosystème de plug-ins interopérables. CARLA simule des scènes de trafic dynamiques et fournit une interface entre le monde virtuel créé par UE4 et l'agent routier s'exécutant dans la scène. CARLA est conçu comme un système serveur-client pour y parvenir, le serveur exécutant la simulation et rendant la scène. La communication entre le client et le serveur se fait via des sockets.

Ajout du comportement réel des agents au simulateur de conduite autonome CARLA

Les principales caractéristiques de l'insertion du comportement d'un agent réel dans la simulation sont basées sur cinq points (comme le montre la figure) : 1) Contrôle d'avatar : bibliothèque de plans CARLA, collecte l'architecture de tous les rôles et attributs, modifie le plan piéton, dans Créer une interface VR immersive et mobile entre les personnes et le monde virtuel ; 2) Suivi du corps : utilisez un ensemble de capteurs inertiels et un logiciel externe propriétaire pour capturer le mouvement du sujet et la perception du mouvement à travers des scènes réelles, et transférer les images d'Avatar. mouvement via des fichiers .bvh Intégré au simulateur ; 3) Conception sonore : CARLA étant un simulateur sans audio, des sons de position sont introduits dans l'environnement pour améliorer l'immersion ; 4) Intégration eHMI : Permet la communication de l'état du véhicule autonome ; et les informations d'intention, effectuez des recherches interactives ; 5) Simulation de scène : Concevez des scènes de circulation dans le client CARLA pour contrôler le comportement des véhicules et des piétons.

La communication entre les usagers de la route est un facteur important dans l'environnement de circulation. Dans le cadre de l’expérience, une interface homme-machine externe (eHMI) a été fournie au véhicule autonome afin de communiquer son statut et ses intentions aux usagers de la route réels.

Ajout du comportement réel des agents au simulateur de conduite autonome CARLA

Comme le montre la figure, la conception eHMI proposée consiste en une bande lumineuse le long de l'avant de la voiture. L'image de gauche est sans eHMI et l'image de droite est avec eHMI. Cela permet d'étudier l'impact de l'interface sur la prise de décision lorsque les trajectoires des piétons convergent avec les trajectoires des véhicules dans des scènes virtuelles.

L'architecture complète du système est présentée dans la figure :

Ajout du comportement réel des agents au simulateur de conduite autonome CARLA

CARLA propose différentes options pour simuler le trafic et des scénarios de trafic spécifiques. Remplissez les simulations avec des conditions de circulation urbaine réalistes grâce aux modules de gestion du trafic. Le contrôle de chaque véhicule est exécuté dans un thread spécifique. La communication avec les autres couches est gérée via une messagerie synchrone.

Contrôlez le flux de trafic en définissant des paramètres qui imposent un comportement spécifique. Par exemple, les voitures peuvent être autorisées à accélérer, à ignorer les feux de circulation, à ignorer les piétons ou à forcer des changements de voie.

Le corps principal est intégré au simulateur comprenant une carte modèle 3D de la ville. Chaque carte est basée sur un fichier OpenDRIVE décrivant un tracé routier entièrement annoté. Cette fonctionnalité permet de concevoir vos propres cartes, de reproduire les mêmes scénarios de trafic dans des environnements réels et virtuels, d'évaluer l'intégration du comportement réel du simulateur, et de pouvoir mener des études de terrain en comparant les résultats d'interaction.

La configuration matérielle est comme indiqué sur l'image : au cours de l'expérience, l'Oculus Quest 2 a été utilisé comme un casque (HMD), créé par Meta, un processeur de 6 Go de RAM, deux objectifs réglables de 1 832 x 1 920, un taux de rafraîchissement de 90 Hz et 256 Go de mémoire . Le Quest 2 est doté d'une connectivité Wi-Fi 6, Bluetooth 5.1 et USB Type-C, de la prise en charge de SteamVR et de haut-parleurs 3D. Pour le suivi de l’ensemble du corps, emballez la solution avec PNS avec un tracker inertiel. Le kit comprend un casque VR autonome, 2 contrôleurs de mouvement, 17 capteurs corporels inertiels Studio, 14 jeux de sangles, un étui de chargement et un émetteur-récepteur Studio.

Ajout du comportement réel des agents au simulateur de conduite autonome CARLA

Étant donné que CARLA build et Quest 2 reposent uniquement sur Windows, le système d'immersion VR s'appuie actuellement sur les systèmes d'exploitation UE4.24 et Windows 10. Avec le plugin TCP sockets, la position de l'éditeur de tous les participants et d'autres paramètres utiles sont envoyés depuis l'API Python, intégrant la voix de chaque participant ou l'eHMI d'un véhicule autonome. "VR Preview" démarre le jeu sur HMD. Perception Neuron Studio fonctionne avec Axis Studio, qui prend en charge jusqu'à 3 sujets à la fois et 23 capteurs corporels et tactiles simultanément.

L'image montre la simulation des conditions de circulation interactives : (a) conception du monde en 3D. (b) Avatar, exécuteur correspondant aux piétons. (c) Voitures autonomes. (d) Sons environnementaux et sons intelligents. (e) eHMI. f) Feux de circulation et panneaux de signalisation.

Ajout du comportement réel des agents au simulateur de conduite autonome CARLA

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Comment réparer l'audio si vous n'entendez personne
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Comment déverrouiller tout dans Myrise
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Pourquoi le Gaussian Splatting est-il si populaire dans la conduite autonome que le NeRF commence à être abandonné ? Pourquoi le Gaussian Splatting est-il si populaire dans la conduite autonome que le NeRF commence à être abandonné ? Jan 17, 2024 pm 02:57 PM

Écrit ci-dessus et compréhension personnelle de l'auteur Le Gaussiansplatting tridimensionnel (3DGS) est une technologie transformatrice qui a émergé dans les domaines des champs de rayonnement explicites et de l'infographie ces dernières années. Cette méthode innovante se caractérise par l’utilisation de millions de gaussiennes 3D, ce qui est très différent de la méthode du champ de rayonnement neuronal (NeRF), qui utilise principalement un modèle implicite basé sur les coordonnées pour mapper les coordonnées spatiales aux valeurs des pixels. Avec sa représentation explicite de scènes et ses algorithmes de rendu différenciables, 3DGS garantit non seulement des capacités de rendu en temps réel, mais introduit également un niveau de contrôle et d'édition de scène sans précédent. Cela positionne 3DGS comme un révolutionnaire potentiel pour la reconstruction et la représentation 3D de nouvelle génération. À cette fin, nous fournissons pour la première fois un aperçu systématique des derniers développements et préoccupations dans le domaine du 3DGS.

Comment résoudre le problème de la longue traîne dans les scénarios de conduite autonome ? Comment résoudre le problème de la longue traîne dans les scénarios de conduite autonome ? Jun 02, 2024 pm 02:44 PM

Hier, lors de l'entretien, on m'a demandé si j'avais posé des questions à longue traîne, j'ai donc pensé faire un bref résumé. Le problème à longue traîne de la conduite autonome fait référence aux cas extrêmes dans les véhicules autonomes, c'est-à-dire à des scénarios possibles avec une faible probabilité d'occurrence. Le problème perçu de la longue traîne est l’une des principales raisons limitant actuellement le domaine de conception opérationnelle des véhicules autonomes intelligents à véhicule unique. L'architecture sous-jacente et la plupart des problèmes techniques de la conduite autonome ont été résolus, et les 5 % restants des problèmes à longue traîne sont progressivement devenus la clé pour restreindre le développement de la conduite autonome. Ces problèmes incluent une variété de scénarios fragmentés, de situations extrêmes et de comportements humains imprévisibles. La « longue traîne » des scénarios limites dans la conduite autonome fait référence aux cas limites dans les véhicules autonomes (VA). Les cas limites sont des scénarios possibles avec une faible probabilité d'occurrence. ces événements rares

Choisir une caméra ou un lidar ? Une étude récente sur la détection robuste d'objets 3D Choisir une caméra ou un lidar ? Une étude récente sur la détection robuste d'objets 3D Jan 26, 2024 am 11:18 AM

0. Écrit à l'avant&& Compréhension personnelle que les systèmes de conduite autonome s'appuient sur des technologies avancées de perception, de prise de décision et de contrôle, en utilisant divers capteurs (tels que caméras, lidar, radar, etc.) pour percevoir l'environnement et en utilisant des algorithmes et des modèles pour une analyse et une prise de décision en temps réel. Cela permet aux véhicules de reconnaître les panneaux de signalisation, de détecter et de suivre d'autres véhicules, de prédire le comportement des piétons, etc., permettant ainsi de fonctionner en toute sécurité et de s'adapter à des environnements de circulation complexes. Cette technologie attire actuellement une grande attention et est considérée comme un domaine de développement important pour l'avenir des transports. . un. Mais ce qui rend la conduite autonome difficile, c'est de trouver comment faire comprendre à la voiture ce qui se passe autour d'elle. Cela nécessite que l'algorithme de détection d'objets tridimensionnels du système de conduite autonome puisse percevoir et décrire avec précision les objets dans l'environnement, y compris leur emplacement,

Avez-vous vraiment maîtrisé la conversion des systèmes de coordonnées ? Des enjeux multi-capteurs indispensables à la conduite autonome Avez-vous vraiment maîtrisé la conversion des systèmes de coordonnées ? Des enjeux multi-capteurs indispensables à la conduite autonome Oct 12, 2023 am 11:21 AM

Le premier article pilote et clé présente principalement plusieurs systèmes de coordonnées couramment utilisés dans la technologie de conduite autonome, et comment compléter la corrélation et la conversion entre eux, et enfin construire un modèle d'environnement unifié. L'objectif ici est de comprendre la conversion du véhicule en corps rigide de caméra (paramètres externes), la conversion de caméra en image (paramètres internes) et la conversion d'image en unité de pixel. La conversion de 3D en 2D aura une distorsion, une traduction, etc. Points clés : Le système de coordonnées du véhicule et le système de coordonnées du corps de la caméra doivent être réécrits : le système de coordonnées planes et le système de coordonnées des pixels Difficulté : la distorsion de l'image doit être prise en compte. La dé-distorsion et l'ajout de distorsion sont compensés sur le plan de l'image. 2. Introduction Il existe quatre systèmes de vision au total : système de coordonnées du plan de pixels (u, v), système de coordonnées d'image (x, y), système de coordonnées de caméra () et système de coordonnées mondiales (). Il existe une relation entre chaque système de coordonnées,

Cet article vous suffit pour en savoir plus sur la conduite autonome et la prédiction de trajectoire ! Cet article vous suffit pour en savoir plus sur la conduite autonome et la prédiction de trajectoire ! Feb 28, 2024 pm 07:20 PM

La prédiction de trajectoire joue un rôle important dans la conduite autonome. La prédiction de trajectoire de conduite autonome fait référence à la prédiction de la trajectoire de conduite future du véhicule en analysant diverses données pendant le processus de conduite du véhicule. En tant que module central de la conduite autonome, la qualité de la prédiction de trajectoire est cruciale pour le contrôle de la planification en aval. La tâche de prédiction de trajectoire dispose d'une riche pile technologique et nécessite une connaissance de la perception dynamique/statique de la conduite autonome, des cartes de haute précision, des lignes de voie, des compétences en architecture de réseau neuronal (CNN&GNN&Transformer), etc. Il est très difficile de démarrer ! De nombreux fans espèrent se lancer dans la prédiction de trajectoire le plus tôt possible et éviter les pièges. Aujourd'hui, je vais faire le point sur quelques problèmes courants et des méthodes d'apprentissage introductives pour la prédiction de trajectoire ! Connaissances introductives 1. Existe-t-il un ordre d'entrée pour les épreuves de prévisualisation ? R : Regardez d’abord l’enquête, p

SIMPL : un benchmark de prédiction de mouvement multi-agents simple et efficace pour la conduite autonome SIMPL : un benchmark de prédiction de mouvement multi-agents simple et efficace pour la conduite autonome Feb 20, 2024 am 11:48 AM

Titre original : SIMPL : ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving Lien article : https://arxiv.org/pdf/2402.02519.pdf Lien code : https://github.com/HKUST-Aerial-Robotics/SIMPL Affiliation de l'auteur : Université des sciences de Hong Kong et technologie Idée DJI Paper : cet article propose une base de référence de prédiction de mouvement (SIMPL) simple et efficace pour les véhicules autonomes. Par rapport au cent agent traditionnel

NuScenes dernier SOTA SparseAD : les requêtes clairsemées contribuent à une conduite autonome efficace de bout en bout ! NuScenes dernier SOTA SparseAD : les requêtes clairsemées contribuent à une conduite autonome efficace de bout en bout ! Apr 17, 2024 pm 06:22 PM

Écrit à l'avant et point de départ Le paradigme de bout en bout utilise un cadre unifié pour réaliser plusieurs tâches dans les systèmes de conduite autonome. Malgré la simplicité et la clarté de ce paradigme, les performances des méthodes de conduite autonome de bout en bout sur les sous-tâches sont encore loin derrière les méthodes à tâche unique. Dans le même temps, les fonctionnalités de vue à vol d'oiseau (BEV) denses, largement utilisées dans les méthodes de bout en bout précédentes, rendent difficile l'adaptation à davantage de modalités ou de tâches. Un paradigme de conduite autonome de bout en bout (SparseAD) centré sur la recherche clairsemée est proposé ici, dans lequel la recherche clairsemée représente entièrement l'ensemble du scénario de conduite, y compris l'espace, le temps et les tâches, sans aucune représentation BEV dense. Plus précisément, une architecture clairsemée unifiée est conçue pour la connaissance des tâches, notamment la détection, le suivi et la cartographie en ligne. De plus, lourd

Parlons des systèmes de conduite autonome de bout en bout et de nouvelle génération, ainsi que de quelques malentendus sur la conduite autonome de bout en bout ? Parlons des systèmes de conduite autonome de bout en bout et de nouvelle génération, ainsi que de quelques malentendus sur la conduite autonome de bout en bout ? Apr 15, 2024 pm 04:13 PM

Au cours du mois dernier, pour des raisons bien connues, j'ai eu des échanges très intensifs avec divers professeurs et camarades de classe du secteur. Un sujet inévitable dans l'échange est naturellement le populaire Tesla FSDV12 de bout en bout. Je voudrais profiter de cette occasion pour trier certaines de mes pensées et opinions en ce moment pour votre référence et votre discussion. Comment définir un système de conduite autonome de bout en bout et quels problèmes devraient être résolus de bout en bout ? Selon la définition la plus traditionnelle, un système de bout en bout fait référence à un système qui saisit les informations brutes des capteurs et génère directement les variables pertinentes pour la tâche. Par exemple, en reconnaissance d'images, CNN peut être appelé de bout en bout par rapport à la méthode traditionnelle d'extraction de caractéristiques + classificateur. Dans les tâches de conduite autonome, saisir les données de divers capteurs (caméra/LiDAR

See all articles