Le cœur de la conduite autonome réside dans la voiture, mais qu'est-ce que le système de connexion réseau intelligent ? Le support de la connexion réseau intelligente est également la voiture, mais le cœur est le réseau qui doit être connecté. L’un est un réseau composé de capteurs et de systèmes de contrôle intelligents à l’intérieur de la voiture, et l’autre est un réseau connecté et partagé par toutes les voitures. La connexion réseau consiste à placer une voiture dans un vaste réseau pour échanger des informations importantes, telles que l'emplacement, l'itinéraire, la vitesse et d'autres informations. L'objectif de développement du système de réseau intelligent est d'améliorer la sécurité et le confort de la voiture grâce à la conception et à l'optimisation des capteurs internes et des systèmes de contrôle de la voiture, rendant la voiture plus humaine. Bien entendu, l'objectif ultime est de parvenir à une conduite sans conducteur. conduite.
Les trois systèmes auxiliaires de base des véhicules autonomes : le système de perception de l'environnement, le système de prise de décision et de planification, et le système de contrôle et d'exécution. Ce sont également les trois problèmes techniques clés que le véhicule intelligent en réseau lui-même doit résoudre.
Qu'est-ce que la technologie de détection de l'environnement et que comprend-elle principalement ?
La perception de l'environnement comprend principalement trois aspects : les capteurs, la perception et le positionnement. Les capteurs comprennent des caméras, un radar à ondes millimétriques, un lidar et des ondes ultrasoniques. Différents capteurs sont placés sur le véhicule et jouent un rôle dans la collecte de données, l'identification des couleurs et la mesure des distances.
Si les voitures intelligentes veulent utiliser les données obtenues par les capteurs pour réaliser une conduite intelligente, les données obtenues via les capteurs doivent être traitées par des algorithmes (de perception) et compilées en résultats de données pour réaliser l'échange d'informations sur les véhicules. , les routes, les personnes, etc. Il permet au véhicule d'analyser automatiquement si le véhicule roule dans un état sûr ou dangereux, permet au véhicule de réaliser une conduite intelligente selon les souhaits humains et, en fin de compte, remplace les humains dans la prise de décisions et les objectifs de conduite autonome.
Ensuite, il y a ici un problème technique clé. Différents capteurs jouent des rôles différents. Comment les données numérisées par plusieurs capteurs peuvent-elles former une image d'objet complète ?
Technologie de fusion multi-capteurs
La fonction principale de la caméra est d'identifier la couleur des objets, mais elle sera affectée par le temps pluvieux. Le radar à ondes millimétriques peut compenser les inconvénients de la caméra ; être affecté par les jours de pluie et peut identifier les objets éloignés des obstacles, tels que les piétons, les barrages routiers, etc., mais ne peut pas identifier la forme spécifique des obstacles ; forme spécifique des obstacles ; le radar à ultrasons identifie principalement les obstacles à courte portée sur la carrosserie et est utilisé dans le stationnement des véhicules. Il y en a davantage pendant le processus de conduite. Afin de fusionner les données externes collectées à partir de différents capteurs afin de fournir au contrôleur une base pour prendre des décisions, il est nécessaire de traiter l'algorithme de fusion multi-capteurs pour former une perception panoramique.
Le principe de base de la fusion multi-capteurs est similaire au processus de traitement complet de l'information par le cerveau humain. Divers capteurs sont utilisés pour compléter et optimiser la combinaison d'informations à plusieurs niveaux et dans plusieurs espaces, produisant finalement un résultat cohérent. interprétation de l’environnement d’observation. Dans ce processus, les données multi-sources doivent être pleinement utilisées pour un contrôle et une utilisation raisonnables, et le but ultime de la fusion d'informations est de dériver des informations plus utiles grâce à des combinaisons d'informations multi-niveaux et multi-aspects basées sur les informations d'observation séparées obtenues par chaque capteur. Cela tire non seulement parti du fonctionnement coopératif de plusieurs capteurs, mais traite également de manière globale les données provenant d'autres sources d'informations pour améliorer l'intelligence de l'ensemble du système de capteurs.
Le concept de fusion de données multicapteurs a été appliqué pour la première fois dans le domaine militaire. Ces dernières années, avec le développement de la conduite autonome, divers radars sont utilisés dans la détection de cibles de véhicules. Étant donné que différents capteurs ont des problèmes d’exactitude des données, comment déterminer les données finales fusionnées ? Par exemple, le lidar indique que la distance au véhicule qui précède est de 5 m, le radar à ondes millimétriques indique que la distance au véhicule qui précède est de 5,5 m et la caméra détermine que la distance au véhicule qui précède est de 4 m. Comment le processeur central doit-il prendre le jugement final ? Un ensemble d’algorithmes de fusion multi-données est alors nécessaire pour résoudre ce problème.
Les méthodes courantes de fusion multi-capteurs sont divisées en deux grandes catégories : l'intelligence aléatoire et l'intelligence artificielle. La catégorie IA comprend principalement le raisonnement en logique floue et les méthodes de réseaux neuronaux artificiels ; les méthodes stochastiques incluent principalement le filtrage bayésien, le filtrage de Kalman et d'autres algorithmes. À l'heure actuelle, la détection de fusion automobile utilise principalement des algorithmes de fusion aléatoire.
L'algorithme de perception de fusion des véhicules autonomes utilise principalement l'algorithme de filtre de Kalman, qui utilise des équations d'état du système linéaire pour estimer de manière optimale l'état du système grâce aux données d'observation d'entrée et de sortie du système. C'est actuellement le meilleur algorithme pour résoudre la plupart des problèmes. méthode efficace.
Plusieurs capteurs doivent être traités par des algorithmes de fusion. Par conséquent, les entreprises auront besoin d'ingénieurs en algorithmes dans la catégorie de détection de fusion pour résoudre le problème de la fusion multi-capteurs. maîtriser plusieurs capteurs. Le principe de fonctionnement et les caractéristiques des données des signaux, et la capacité de maîtriser les algorithmes de fusion pour le développement de logiciels et les algorithmes d'étalonnage des capteurs, ainsi que le traitement des données de nuages de points, les algorithmes de détection d'apprentissage en profondeur, etc.
Slam est appelé positionnement et cartographie simultanés. Il suppose que la scène est statique et utilise le mouvement de la caméra pour obtenir la séquence d'images et obtenir les 3. -D scène. La conception structurelle est une tâche importante de la vision par ordinateur. Les données obtenues par la caméra sont traitées par un algorithme, qui est un claquement visuel.
En plus du claquement visuel, les méthodes de positionnement respectueuses de l'environnement incluent également le claquement lidar, le GPS/IMU et des cartes de haute précision. Les données obtenues par ces capteurs doivent être traitées par des algorithmes pour former des résultats qui fournissent une base d'informations de localisation pour les décisions de conduite autonome. Par conséquent, si vous souhaitez travailler dans le domaine de la perception environnementale, vous pouvez non seulement choisir la position de l'algorithme de détection de fusion, mais également choisir le champ de claquement.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!