


Un article analysant brièvement la fusion multi-capteurs pour la conduite autonome
Qu'est-ce que les voitures connectées intelligentes ont à voir avec la conduite autonome ?
Le cœur de la conduite autonome réside dans la voiture, mais qu'est-ce que le système de connexion réseau intelligent ? Le support de la connexion réseau intelligente est également la voiture, mais le cœur est le réseau qui doit être connecté. L’un est un réseau composé de capteurs et de systèmes de contrôle intelligents à l’intérieur de la voiture, et l’autre est un réseau connecté et partagé par toutes les voitures. La connexion réseau consiste à placer une voiture dans un vaste réseau pour échanger des informations importantes, telles que l'emplacement, l'itinéraire, la vitesse et d'autres informations. L'objectif de développement du système de réseau intelligent est d'améliorer la sécurité et le confort de la voiture grâce à la conception et à l'optimisation des capteurs internes et des systèmes de contrôle de la voiture, rendant la voiture plus humaine. Bien entendu, l'objectif ultime est de parvenir à une conduite sans conducteur. conduite.
Les trois systèmes auxiliaires de base des véhicules autonomes : le système de perception de l'environnement, le système de prise de décision et de planification, et le système de contrôle et d'exécution. Ce sont également les trois problèmes techniques clés que le véhicule intelligent en réseau lui-même doit résoudre.
Quel rôle le système de détection de l'environnement joue-t-il dans le système de connexion réseau intelligent ?
Qu'est-ce que la technologie de détection de l'environnement et que comprend-elle principalement ?
La perception de l'environnement comprend principalement trois aspects : les capteurs, la perception et le positionnement. Les capteurs comprennent des caméras, un radar à ondes millimétriques, un lidar et des ondes ultrasoniques. Différents capteurs sont placés sur le véhicule et jouent un rôle dans la collecte de données, l'identification des couleurs et la mesure des distances.
Si les voitures intelligentes veulent utiliser les données obtenues par les capteurs pour réaliser une conduite intelligente, les données obtenues via les capteurs doivent être traitées par des algorithmes (de perception) et compilées en résultats de données pour réaliser l'échange d'informations sur les véhicules. , les routes, les personnes, etc. Il permet au véhicule d'analyser automatiquement si le véhicule roule dans un état sûr ou dangereux, permet au véhicule de réaliser une conduite intelligente selon les souhaits humains et, en fin de compte, remplace les humains dans la prise de décisions et les objectifs de conduite autonome.
Ensuite, il y a ici un problème technique clé. Différents capteurs jouent des rôles différents. Comment les données numérisées par plusieurs capteurs peuvent-elles former une image d'objet complète ?
Technologie de fusion multi-capteurs
La fonction principale de la caméra est d'identifier la couleur des objets, mais elle sera affectée par le temps pluvieux. Le radar à ondes millimétriques peut compenser les inconvénients de la caméra ; être affecté par les jours de pluie et peut identifier les objets éloignés des obstacles, tels que les piétons, les barrages routiers, etc., mais ne peut pas identifier la forme spécifique des obstacles ; forme spécifique des obstacles ; le radar à ultrasons identifie principalement les obstacles à courte portée sur la carrosserie et est utilisé dans le stationnement des véhicules. Il y en a davantage pendant le processus de conduite. Afin de fusionner les données externes collectées à partir de différents capteurs afin de fournir au contrôleur une base pour prendre des décisions, il est nécessaire de traiter l'algorithme de fusion multi-capteurs pour former une perception panoramique.
Qu'est-ce que la fusion multi-capteurs (traitement d'algorithmes de fusion), et quels sont les principaux algorithmes de fusion ?
Le principe de base de la fusion multi-capteurs est similaire au processus de traitement complet de l'information par le cerveau humain. Divers capteurs sont utilisés pour compléter et optimiser la combinaison d'informations à plusieurs niveaux et dans plusieurs espaces, produisant finalement un résultat cohérent. interprétation de l’environnement d’observation. Dans ce processus, les données multi-sources doivent être pleinement utilisées pour un contrôle et une utilisation raisonnables, et le but ultime de la fusion d'informations est de dériver des informations plus utiles grâce à des combinaisons d'informations multi-niveaux et multi-aspects basées sur les informations d'observation séparées obtenues par chaque capteur. Cela tire non seulement parti du fonctionnement coopératif de plusieurs capteurs, mais traite également de manière globale les données provenant d'autres sources d'informations pour améliorer l'intelligence de l'ensemble du système de capteurs.
Le concept de fusion de données multicapteurs a été appliqué pour la première fois dans le domaine militaire. Ces dernières années, avec le développement de la conduite autonome, divers radars sont utilisés dans la détection de cibles de véhicules. Étant donné que différents capteurs ont des problèmes d’exactitude des données, comment déterminer les données finales fusionnées ? Par exemple, le lidar indique que la distance au véhicule qui précède est de 5 m, le radar à ondes millimétriques indique que la distance au véhicule qui précède est de 5,5 m et la caméra détermine que la distance au véhicule qui précède est de 4 m. Comment le processeur central doit-il prendre le jugement final ? Un ensemble d’algorithmes de fusion multi-données est alors nécessaire pour résoudre ce problème.
Les méthodes courantes de fusion multi-capteurs sont divisées en deux grandes catégories : l'intelligence aléatoire et l'intelligence artificielle. La catégorie IA comprend principalement le raisonnement en logique floue et les méthodes de réseaux neuronaux artificiels ; les méthodes stochastiques incluent principalement le filtrage bayésien, le filtrage de Kalman et d'autres algorithmes. À l'heure actuelle, la détection de fusion automobile utilise principalement des algorithmes de fusion aléatoire.
L'algorithme de perception de fusion des véhicules autonomes utilise principalement l'algorithme de filtre de Kalman, qui utilise des équations d'état du système linéaire pour estimer de manière optimale l'état du système grâce aux données d'observation d'entrée et de sortie du système. C'est actuellement le meilleur algorithme pour résoudre la plupart des problèmes. méthode efficace.
Plusieurs capteurs doivent être traités par des algorithmes de fusion. Par conséquent, les entreprises auront besoin d'ingénieurs en algorithmes dans la catégorie de détection de fusion pour résoudre le problème de la fusion multi-capteurs. maîtriser plusieurs capteurs. Le principe de fonctionnement et les caractéristiques des données des signaux, et la capacité de maîtriser les algorithmes de fusion pour le développement de logiciels et les algorithmes d'étalonnage des capteurs, ainsi que le traitement des données de nuages de points, les algorithmes de détection d'apprentissage en profondeur, etc.
La troisième partie de la perception de l'environnement - positionnement (slam)
Slam est appelé positionnement et cartographie simultanés. Il suppose que la scène est statique et utilise le mouvement de la caméra pour obtenir la séquence d'images et obtenir les 3. -D scène. La conception structurelle est une tâche importante de la vision par ordinateur. Les données obtenues par la caméra sont traitées par un algorithme, qui est un claquement visuel.
En plus du claquement visuel, les méthodes de positionnement respectueuses de l'environnement incluent également le claquement lidar, le GPS/IMU et des cartes de haute précision. Les données obtenues par ces capteurs doivent être traitées par des algorithmes pour former des résultats qui fournissent une base d'informations de localisation pour les décisions de conduite autonome. Par conséquent, si vous souhaitez travailler dans le domaine de la perception environnementale, vous pouvez non seulement choisir la position de l'algorithme de détection de fusion, mais également choisir le champ de claquement.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Écrit ci-dessus et compréhension personnelle de l'auteur Le Gaussiansplatting tridimensionnel (3DGS) est une technologie transformatrice qui a émergé dans les domaines des champs de rayonnement explicites et de l'infographie ces dernières années. Cette méthode innovante se caractérise par l’utilisation de millions de gaussiennes 3D, ce qui est très différent de la méthode du champ de rayonnement neuronal (NeRF), qui utilise principalement un modèle implicite basé sur les coordonnées pour mapper les coordonnées spatiales aux valeurs des pixels. Avec sa représentation explicite de scènes et ses algorithmes de rendu différenciables, 3DGS garantit non seulement des capacités de rendu en temps réel, mais introduit également un niveau de contrôle et d'édition de scène sans précédent. Cela positionne 3DGS comme un révolutionnaire potentiel pour la reconstruction et la représentation 3D de nouvelle génération. À cette fin, nous fournissons pour la première fois un aperçu systématique des derniers développements et préoccupations dans le domaine du 3DGS.

Hier, lors de l'entretien, on m'a demandé si j'avais posé des questions à longue traîne, j'ai donc pensé faire un bref résumé. Le problème à longue traîne de la conduite autonome fait référence aux cas extrêmes dans les véhicules autonomes, c'est-à-dire à des scénarios possibles avec une faible probabilité d'occurrence. Le problème perçu de la longue traîne est l’une des principales raisons limitant actuellement le domaine de conception opérationnelle des véhicules autonomes intelligents à véhicule unique. L'architecture sous-jacente et la plupart des problèmes techniques de la conduite autonome ont été résolus, et les 5 % restants des problèmes à longue traîne sont progressivement devenus la clé pour restreindre le développement de la conduite autonome. Ces problèmes incluent une variété de scénarios fragmentés, de situations extrêmes et de comportements humains imprévisibles. La « longue traîne » des scénarios limites dans la conduite autonome fait référence aux cas limites dans les véhicules autonomes (VA). Les cas limites sont des scénarios possibles avec une faible probabilité d'occurrence. ces événements rares

0. Écrit à l'avant&& Compréhension personnelle que les systèmes de conduite autonome s'appuient sur des technologies avancées de perception, de prise de décision et de contrôle, en utilisant divers capteurs (tels que caméras, lidar, radar, etc.) pour percevoir l'environnement et en utilisant des algorithmes et des modèles pour une analyse et une prise de décision en temps réel. Cela permet aux véhicules de reconnaître les panneaux de signalisation, de détecter et de suivre d'autres véhicules, de prédire le comportement des piétons, etc., permettant ainsi de fonctionner en toute sécurité et de s'adapter à des environnements de circulation complexes. Cette technologie attire actuellement une grande attention et est considérée comme un domaine de développement important pour l'avenir des transports. . un. Mais ce qui rend la conduite autonome difficile, c'est de trouver comment faire comprendre à la voiture ce qui se passe autour d'elle. Cela nécessite que l'algorithme de détection d'objets tridimensionnels du système de conduite autonome puisse percevoir et décrire avec précision les objets dans l'environnement, y compris leur emplacement,

L'article de StableDiffusion3 est enfin là ! Ce modèle est sorti il y a deux semaines et utilise la même architecture DiT (DiffusionTransformer) que Sora. Il a fait beaucoup de bruit dès sa sortie. Par rapport à la version précédente, la qualité des images générées par StableDiffusion3 a été considérablement améliorée. Il prend désormais en charge les invites multithèmes, et l'effet d'écriture de texte a également été amélioré et les caractères tronqués n'apparaissent plus. StabilityAI a souligné que StableDiffusion3 est une série de modèles avec des tailles de paramètres allant de 800M à 8B. Cette plage de paramètres signifie que le modèle peut être exécuté directement sur de nombreux appareils portables, réduisant ainsi considérablement l'utilisation de l'IA.

La prédiction de trajectoire joue un rôle important dans la conduite autonome. La prédiction de trajectoire de conduite autonome fait référence à la prédiction de la trajectoire de conduite future du véhicule en analysant diverses données pendant le processus de conduite du véhicule. En tant que module central de la conduite autonome, la qualité de la prédiction de trajectoire est cruciale pour le contrôle de la planification en aval. La tâche de prédiction de trajectoire dispose d'une riche pile technologique et nécessite une connaissance de la perception dynamique/statique de la conduite autonome, des cartes de haute précision, des lignes de voie, des compétences en architecture de réseau neuronal (CNN&GNN&Transformer), etc. Il est très difficile de démarrer ! De nombreux fans espèrent se lancer dans la prédiction de trajectoire le plus tôt possible et éviter les pièges. Aujourd'hui, je vais faire le point sur quelques problèmes courants et des méthodes d'apprentissage introductives pour la prédiction de trajectoire ! Connaissances introductives 1. Existe-t-il un ordre d'entrée pour les épreuves de prévisualisation ? R : Regardez d’abord l’enquête, p

Titre original : SIMPL : ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving Lien article : https://arxiv.org/pdf/2402.02519.pdf Lien code : https://github.com/HKUST-Aerial-Robotics/SIMPL Affiliation de l'auteur : Université des sciences de Hong Kong et technologie Idée DJI Paper : cet article propose une base de référence de prédiction de mouvement (SIMPL) simple et efficace pour les véhicules autonomes. Par rapport au cent agent traditionnel

Écrit à l'avant et point de départ Le paradigme de bout en bout utilise un cadre unifié pour réaliser plusieurs tâches dans les systèmes de conduite autonome. Malgré la simplicité et la clarté de ce paradigme, les performances des méthodes de conduite autonome de bout en bout sur les sous-tâches sont encore loin derrière les méthodes à tâche unique. Dans le même temps, les fonctionnalités de vue à vol d'oiseau (BEV) denses, largement utilisées dans les méthodes de bout en bout précédentes, rendent difficile l'adaptation à davantage de modalités ou de tâches. Un paradigme de conduite autonome de bout en bout (SparseAD) centré sur la recherche clairsemée est proposé ici, dans lequel la recherche clairsemée représente entièrement l'ensemble du scénario de conduite, y compris l'espace, le temps et les tâches, sans aucune représentation BEV dense. Plus précisément, une architecture clairsemée unifiée est conçue pour la connaissance des tâches, notamment la détection, le suivi et la cartographie en ligne. De plus, lourd

La détection de cibles est un problème relativement mature dans les systèmes de conduite autonome, parmi lesquels la détection des piétons est l'un des premiers algorithmes à être déployés. Des recherches très complètes ont été menées dans la plupart des articles. Cependant, la perception de la distance à l’aide de caméras fisheye pour une vue panoramique est relativement moins étudiée. En raison de la distorsion radiale importante, la représentation standard du cadre de délimitation est difficile à mettre en œuvre dans les caméras fisheye. Pour alléger la description ci-dessus, nous explorons les conceptions étendues de boîtes englobantes, d'ellipses et de polygones généraux dans des représentations polaires/angulaires et définissons une métrique de segmentation d'instance mIOU pour analyser ces représentations. Le modèle fisheyeDetNet proposé avec une forme polygonale surpasse les autres modèles et atteint simultanément 49,5 % de mAP sur l'ensemble de données de la caméra fisheye Valeo pour la conduite autonome.
