Table des matières
1 Introduction et points clés
, système de coordonnées d'imagerie
4.1 Définition
4.2 Importance
Le système de coordonnées à cinq véhicules
6.5 Paramètres extrinsèques de la caméra
8.4 La relation entre les quatre systèmes de coordonnées
Neuf résumé
Maison Périphériques technologiques IA Avez-vous vraiment maîtrisé la conversion des systèmes de coordonnées ? Des enjeux multi-capteurs indispensables à la conduite autonome

Avez-vous vraiment maîtrisé la conversion des systèmes de coordonnées ? Des enjeux multi-capteurs indispensables à la conduite autonome

Oct 12, 2023 am 11:21 AM
技术 自动驾驶

Avez-vous vraiment maîtrisé la conversion des systèmes de coordonnées ? Des enjeux multi-capteurs indispensables à la conduite autonome

1 Introduction et points clés

Cet article présente principalement plusieurs systèmes de coordonnées couramment utilisés dans la technologie de conduite autonome, et comment compléter la corrélation et la conversion entre eux, et enfin construire un modèle d'environnement unifié. L'objectif ici est de comprendre la conversion du véhicule en corps rigide de caméra (paramètres externes), la conversion de caméra en image (paramètres internes) et la conversion d'image en unité de pixel. La conversion de 3D en 2D aura une distorsion, une traduction, etc. Point clé : système de coordonnées du véhicule autonome
Système de coordonnées du corps de la caméraCe qui doit être réécrit est : le système de coordonnées du planSystème de coordonnées des pixelsDifficulté : la distorsion de l'image doit être prise en compte, et la suppression de la distorsion et la distorsion sont toutes deux compensées sur le plan image

II Introduction

Le système visuel comporte quatre systèmes de coordonnées : le système de coordonnées du plan de pixels (u, v), le système de coordonnées de l'image (x, y), le système de coordonnées de la caméra () et le système de coordonnées mondial (). Il existe une connexion entre chaque système de coordonnées, donc la façon de localiser les coordonnées du système de coordonnées mondial à travers les coordonnées des pixels de l'image doit être résolue via l'étalonnage de la caméra. La partie clé de l'algorithme réside dans la conversion du système de coordonnées

, et la transformation doit être résolue. se faire via

La représentation des coordonnées homogènes est réalisée. Trois systèmes de coordonnées de capteurs

3.1 Système de coordonnées de la caméra

La fonction de la caméra est de compresser les informations de forme et de couleur dans le monde tridimensionnel en une image bidimensionnelle

. L'algorithme de perception basé sur une caméra extrait et restaure des éléments et des informations dans le monde tridimensionnel à partir d'images bidimensionnelles, telles que des lignes de voie, des véhicules, des piétons, etc., et calcule leurs positions relatives par rapport à lui-même. Les systèmes de coordonnées liés à l'algorithme de perception et à la caméra incluent le système de coordonnées de l'image (système de coordonnées de pixels) et le système de coordonnées de la caméra. Ce qui doit être réécrit est : le système de coordonnées planes

3.1.1 Système de coordonnées de l'image. (ou système de coordonnées de pixels) Pour les photos ou images stockées sur l'ordinateur, le coin supérieur gauche est généralement l'origine, la direction x positive est vers la droite et la direction y positive est vers le bas. est "pixel". Le système de coordonnées de l'image est un système de coordonnées bidimensionnel, étiqueté (Xv, Yv).

Le contenu qui doit être réécrit est : 3.1.2 Système de coordonnées de la caméra

Étant donné que l'axe x du système de coordonnées de l'image est à droite et l'axe y est vers le bas, le système de coordonnées de la caméra prend le centre de l'axe optique principal de la lentille comme origine. De manière générale, la direction positive est l'axe des x vers la droite, la direction positive est l'axe des y vers le bas et la direction positive est l'axe z vers l'avant. De cette façon, les directions x et y sont cohérentes avec la direction du système de coordonnées de l'image et la direction z représente la profondeur de champ. Le système de coordonnées de la caméra peut être exprimé comme (Xc, Yc)

Ce qui doit être réécrit est : 3.1.3 Ce qui doit être réécrit est : le système de coordonnées planes (ou système de coordonnées d'imagerie)

Pour pour pouvoir

description quantitative La relation cartographique de l'espace tridimensionnel à l'image bidimensionnelle

, ce qui doit être réécrit est introduit dans le graphique : le système de coordonnées planes. Il s'agit d'une traduction du système de coordonnées de la caméra. Le centre est toujours sur l'axe optique principal de la caméra. La distance par rapport au centre de l'axe optique est égale à la distance focale de la caméra. l'image inversée réduite sur le film derrière le centre de l'axe optique, est le plan image réel (Xf, Yf). Cependant, pour faciliter l’analyse et le calcul, nous mettrons en place un plan image virtuel devant le centre de l’axe optique. L'image sur le plan de l'image virtuelle est une image verticale, de la même taille que l'image réelle inversée

Ce qui doit être réécrit est : Système de coordonnées du plan

3.5 Système de coordonnées mondialEn fonction de la situation spécifique , il peut représenter n’importe quel objet introduit grâce à la caméra. L'unité est le mètre

Avez-vous vraiment maîtrisé la conversion des systèmes de coordonnées ? Des enjeux multi-capteurs indispensables à la conduite autonome

système de coordonnées mondial

, système de coordonnées de caméra

, système de coordonnées d'imagerie

et système de coordonnées de pixels

Quatre systèmes de coordonnées Lidar Avez-vous vraiment maîtrisé la conversion des systèmes de coordonnées ? Des enjeux multi-capteurs indispensables à la conduite autonome

Lidar (Light Detection and Ranging) est un Technologie de télédétection , qui utilise des faisceaux laser pour mesurer la distance aux objets. Il émet des rayons dans une rotation de 360 ​​​​degrés et forme des nuages ​​électriques basés sur différentes réflexions de différentes réflectivités cibles. Dans le domaine de la conduite autonome et de la robotique, le Lidar est souvent utilisé comme capteur principal pour obtenir des informations 3D sur l'environnement. Dans la plupart des cas, le système de coordonnées Lidar est droitier, mais la définition spécifique peut varier en fonction du fabricant du Lidar.

Avez-vous vraiment maîtrisé la conversion des systèmes de coordonnées ? Des enjeux multi-capteurs indispensables à la conduite autonome

4.1 Définition

Axe X : pointe généralement devant le Lidar. Lorsque le faisceau laser est tiré directement vers l'avant, la mesure de la distance depuis cette direction produit une valeur positive sur l'axe X. Axe Y : pointe généralement vers le côté gauche du Lidar. Lorsque le faisceau laser est tiré directement vers la gauche, la mesure de distance dans cette direction produit une valeur positive sur l'axe Y. Axe Z : pointe généralement vers le haut du Lidar, perpendiculaire aux axes X et Y. Les mesures de hauteur sont généralement prises le long de l'axe Z, les valeurs positives représentant l'objet étant plus haut que le dispositif Lidar et les valeurs négatives le représentant étant inférieur au dispositif Lidar.

4.2 Importance

  • Le le système de coordonnées du système Lidar monté sur véhicule peut ne pas être complètement aligné avec le système de coordonnées du véhicule, et une matrice de transformation est nécessaire pour effectuer une transformation de coordonnées entre les deux.
  • L'annotation de données, la génération de cartes, la détection d'objets et d'autres tâches nécessitent une définition claire du système de coordonnées Lidar.
  • Pour la fusion de données avec d'autres capteurs, tels que des caméras, il est très essentiel de connaître les systèmes de coordonnées respectifs afin d'effectuer un alignement et une fusion corrects des données.
  • Lors de la fusion de données avec des caméras, des radars ou d'autres capteurs, il est généralement nécessaire de connaître les paramètres d'étalonnage externes (par exemple, les matrices de rotation et de translation) entre le Lidar et ces capteurs afin d'effectuer une transformation de coordonnées entre eux.

Le système de coordonnées à cinq véhicules

Choisissez un système de coordonnées de référence dans l'environnement général pour décrire les positions des capteurs et des objets Ce système de coordonnées est appelé le système de coordonnées mondial en général ; fait référence à la carrosserie du véhicule Le centre de l'essieu arrière est l'origine (car le centre de l'essieu arrière ne changera pas par rapport au balancement de la voiture) , le système de coordonnées spatiales de l'avant supérieur gauche ou de l'avant supérieur droit, la gauche (droite) est généralement horizontale, l'avant est généralement longitudinale et la partie supérieure fait référence au sol. Dans l'espace ci-dessus, le système de coordonnées se déplace avec le mouvement de la voiture. Toutes les cibles en aval qui doivent être détectées et sorties doivent se trouver sous le système de coordonnées du véhicule autonome. La cible en perspective BEV fait également référence à ce système de coordonnées

Avez-vous vraiment maîtrisé la conversion des systèmes de coordonnées ? Des enjeux multi-capteurs indispensables à la conduite autonome

Avez-vous vraiment maîtrisé la conversion des systèmes de coordonnées ? Des enjeux multi-capteurs indispensables à la conduite autonome

Généralement, le système de coordonnées spatiales tridimensionnelles. utilise trois axes orthogonaux X, Y, Z représentent la position de l'objet, et l'angle de rotation (angle de roulis, angle de tangage, angle de lacet) autour de ces trois axes orthogonaux représente l'attitude de l'objet. Le système de coordonnées temporelles n'a qu'une seule dimension. Pour faciliter l’expression, nous discutons généralement séparément des coordonnées spatiales et des coordonnées temporelles.

6 Paramètres internes et externes de la caméra

6.1 Paramètres internes de la caméra

Les paramètres internes sont utilisés pour déterminer la relation de projection de la caméra de l'espace tridimensionnel à l'image bidimensionnelle. Il contient principalement trois paramètres :

point principal de la caméra, distance focale de la caméra et coefficient de distorsion. Les paramètres internes sont généralement donnés par le commerçant, et un calibrage de la caméra peut également être effectué. Dans les applications de conduite autonome, les paramètres internes de la caméra sont constants et ne changeront pas pendant l'utilisation, mais ils doivent être calibrés avant utilisation. Le processus de prise de vue de la caméra peut être résumé comme le processus de cartographie du système de coordonnées de la caméra 3D vers le système de coordonnées de la caméra 2D. Ce qui doit être réécrit est : le système de coordonnées planes, puis le processus de cartographie vers le système de coordonnées de l'image. 6.2 Distance focale (f)

Elle décrit la distance

entre le capteur d'image
    et l'objectif de l'appareil photo. Généralement représenté par deux paramètres (
  • ) et (), correspondant respectivement à l'axe des x et à l'axe des y de l'image. Dans de nombreux cas, nous supposons (
  • ), ce qui signifie que les pixels sont carrés dans les deux sens.
  • 6.3 Point principal

C'est un point de l'image, généralement proche du centre de l'image. C'est le point 2D correspondant à un point dans l'espace 3D lorsqu'il est projeté sur le plan image.

    est généralement représenté par deux paramètres (
  • ) et (
  • ), qui correspondent aux coordonnées sur l'axe x et l'axe y de l'image.
  • 6.4 Coefficient de distorsion

L'objectif d'un véritable appareil photo peut introduire une distorsion, provoquant une distorsion de l'image. Les distorsions courantes incluent la distorsion radiale et la distorsion tangentielle.

    Le coefficient de distorsion radiale couramment utilisé est (
  • ).
  • Le coefficient de distorsion tangentielle est (
  • ).
  • De manière générale, les paramètres internes de la caméra peuvent être représentés par une matrice :

Cette matrice est souvent appelée matrice de paramètres internes ou matrice de caméra.

6.5 Paramètres extrinsèques de la caméra

Déduire la position de l'objet dans le système de coordonnées de la caméra tridimensionnelle à travers l'image bidimensionnelle, par exemple pour obtenir des informations sur la distance et la profondeur. Obtenez des informations de distance tridimensionnelles à partir d'une image bidimensionnelle Si devez obtenir la position de l'objet dans le système de coordonnées mondial , vous devez également connaître la pose de la caméra dans le système de coordonnées mondial . Cette représentation de pose est appelée le paramètre externe de la caméra, appelé paramètre externe, qui est utilisé pour déterminer la relation de position relative entre les coordonnées de la caméra et le système de coordonnées mondial. Dans les applications de conduite autonome, l’obtention de cette relation de position nécessite une série de travaux d’étalonnage et de positionnement. La caméra est une matrice de rotation + translation par rapport à d'autres systèmes de coordonnées, dans laquelle le paramètre externe de rotation est l'angle d'Euler mentionné ci-dessus [lacet, patch, roulis], l'ordre de rotation est généralement (z-y-x), degré unitaire de translation externe ; Le paramètre est la traduction de la caméra vers le système de coordonnées cible Distance, unité mètre

Sept systèmes de coordonnées de véhicules et système de coordonnées mondiales

7.1 Système de coordonnées du véhicule (Système de coordonnées du véhicule)

    Il s'agit d'un système de coordonnées fixe sur le véhicule.
  • Habituellement, l'axe X pointe vers l'avant du véhicule, l'axe Y pointe vers la droite (ou la gauche, selon l'accord) du véhicule, et l'axe Z pointe vers le dessus du véhicule.
  • L'origine de ce système de coordonnées est généralement située à un point fixe du véhicule, tel que le centre du véhicule, l'essieu arrière du véhicule, etc., selon l'application spécifique et la convention.

7.2 Système de coordonnées mondial

    Il s'agit d'un système de coordonnées global fixe utilisé pour décrire les objets et les véhicules dans l'environnement.
  • L'origine et la direction du système de coordonnées mondial sont généralement choisies en fonction de l'application ou du scénario spécifique. Par exemple, il peut être positionné à un point fixe sur une carte, ou au centre d'une scène.
  • Le système de coordonnées mondial fournit un cadre de référence commun pour plusieurs entités, permettant le positionnement relatif et la navigation entre elles.

Relation et conversion : - Puisque le véhicule se déplace dans le monde, la relation entre le système de coordonnées du véhicule autonome et le système de coordonnées mondial change dans le temps. - Afin d'effectuer une conversion entre ces deux systèmes de coordonnées, une matrice de transformation ou transformation (constituée généralement d'une rotation et d'une translation) est généralement nécessaire. Cette conversion peut être obtenue grâce à divers capteurs (tels que GPS, IMU, lidar) et algorithmes (tels que SLAM). - La transformation peut être exprimée sous la forme d'une matrice de coordonnées homogène 4x4, permettant de passer d'un système de coordonnées à un autre.

Dans la plupart des cas, le système de coordonnées du véhicule autonome et le système de coordonnées mondial sont les mêmes, et cet article comprend également cela

Relation de conversion entre les huit systèmes de coordonnées

8.1 Du système de coordonnées mondial à le système de coordonnées de la caméra

La transformation du système de coordonnées entre les objets peut représenter la

transformation de rotation plus transformation de translation du système de coordonnées, et il en va de même pour la relation de conversion du système de coordonnées mondial au système de coordonnées de la caméra. La rotation de différents angles autour de différents axes entraîne différentes matrices de rotation. Schéma de principe de la rotation θ autour de l'axe Z :

Avez-vous vraiment maîtrisé la conversion des systèmes de coordonnées ? Des enjeux multi-capteurs indispensables à la conduite autonome

Avez-vous vraiment maîtrisé la conversion des systèmes de coordonnées ? Des enjeux multi-capteurs indispensables à la conduite autonome

Enfin, cela peut être simplement résumé comme une matrice de rotation :

Traduction : Traduire le point de coordonnées de la caméra () La distance de translation est () à le point de coordonnées mondial

Avez-vous vraiment maîtrisé la conversion des systèmes de coordonnées ? Des enjeux multi-capteurs indispensables à la conduite autonome

8.2 Système de coordonnées de la caméra au système de coordonnées de l'image

Du système de coordonnées de la caméra au système de coordonnées de l'image, il appartient à la relation de projection en perspective, passant de la 3D à la 2D. Il peut également être considéré comme un modèle de changement du modèle sténopé. Satisfaire le théorème de similarité des triangles.

Avez-vous vraiment maîtrisé la conversion des systèmes de coordonnées ? Des enjeux multi-capteurs indispensables à la conduite autonome

8.3 Système de coordonnées d'image en système de coordonnées de pixels

Dans ce cas, contrairement à la transformation du système de coordonnées précédente, il n'y a pas de transformation de rotation pour le moment, mais la position et la taille de l'origine des coordonnées sont incohérentes, donc une conception télescopique est requise Transformation et transformation de traduction

Avez-vous vraiment maîtrisé la conversion des systèmes de coordonnées ? Des enjeux multi-capteurs indispensables à la conduite autonome

8.4 La relation entre les quatre systèmes de coordonnées

Avez-vous vraiment maîtrisé la conversion des systèmes de coordonnées ? Des enjeux multi-capteurs indispensables à la conduite autonome

Avez-vous vraiment maîtrisé la conversion des systèmes de coordonnées ? Des enjeux multi-capteurs indispensables à la conduite autonome

Grâce à la relation de conversion finale, un point de coordonnées tridimensionnel peut trouver le point de pixel correspondant dans l'image. Cependant, à l'inverse, cela devient un problème de trouver le point correspondant dans l'espace tridimensionnel à travers un point de l'image, car on ne connaît pas la valeur du côté gauche de l'équation

Avez-vous vraiment maîtrisé la conversion des systèmes de coordonnées ? Des enjeux multi-capteurs indispensables à la conduite autonome

La case rouge est la paramètre externe, R et T sont respectivement les quantités de rotation et de translation. Les paramètres internes sont des attributs inhérents à la caméra, qui sont en réalité la distance focale f et la taille des pixels dx,dy. Évidemment, il représente la distance entre le point et l'axe optique.

Neuf résumé

trie les différents systèmes de coordonnées de la conduite autonome, montre la relation entre les différents systèmes de coordonnées de la conduite autonome et obtient enfin la relation entre le système de coordonnées de pixels et le système de coordonnées mondial.

Avez-vous vraiment maîtrisé la conversion des systèmes de coordonnées ? Des enjeux multi-capteurs indispensables à la conduite autonome

Lien original : https://mp.weixin.qq.com/s/tTRCjZBRZcnb59nX3FRR8w

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Comment réparer l'audio si vous n'entendez personne
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Comment déverrouiller tout dans Myrise
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Pourquoi le Gaussian Splatting est-il si populaire dans la conduite autonome que le NeRF commence à être abandonné ? Pourquoi le Gaussian Splatting est-il si populaire dans la conduite autonome que le NeRF commence à être abandonné ? Jan 17, 2024 pm 02:57 PM

Écrit ci-dessus et compréhension personnelle de l'auteur Le Gaussiansplatting tridimensionnel (3DGS) est une technologie transformatrice qui a émergé dans les domaines des champs de rayonnement explicites et de l'infographie ces dernières années. Cette méthode innovante se caractérise par l’utilisation de millions de gaussiennes 3D, ce qui est très différent de la méthode du champ de rayonnement neuronal (NeRF), qui utilise principalement un modèle implicite basé sur les coordonnées pour mapper les coordonnées spatiales aux valeurs des pixels. Avec sa représentation explicite de scènes et ses algorithmes de rendu différenciables, 3DGS garantit non seulement des capacités de rendu en temps réel, mais introduit également un niveau de contrôle et d'édition de scène sans précédent. Cela positionne 3DGS comme un révolutionnaire potentiel pour la reconstruction et la représentation 3D de nouvelle génération. À cette fin, nous fournissons pour la première fois un aperçu systématique des derniers développements et préoccupations dans le domaine du 3DGS.

Comment résoudre le problème de la longue traîne dans les scénarios de conduite autonome ? Comment résoudre le problème de la longue traîne dans les scénarios de conduite autonome ? Jun 02, 2024 pm 02:44 PM

Hier, lors de l'entretien, on m'a demandé si j'avais posé des questions à longue traîne, j'ai donc pensé faire un bref résumé. Le problème à longue traîne de la conduite autonome fait référence aux cas extrêmes dans les véhicules autonomes, c'est-à-dire à des scénarios possibles avec une faible probabilité d'occurrence. Le problème perçu de la longue traîne est l’une des principales raisons limitant actuellement le domaine de conception opérationnelle des véhicules autonomes intelligents à véhicule unique. L'architecture sous-jacente et la plupart des problèmes techniques de la conduite autonome ont été résolus, et les 5 % restants des problèmes à longue traîne sont progressivement devenus la clé pour restreindre le développement de la conduite autonome. Ces problèmes incluent une variété de scénarios fragmentés, de situations extrêmes et de comportements humains imprévisibles. La « longue traîne » des scénarios limites dans la conduite autonome fait référence aux cas limites dans les véhicules autonomes (VA). Les cas limites sont des scénarios possibles avec une faible probabilité d'occurrence. ces événements rares

Choisir une caméra ou un lidar ? Une étude récente sur la détection robuste d'objets 3D Choisir une caméra ou un lidar ? Une étude récente sur la détection robuste d'objets 3D Jan 26, 2024 am 11:18 AM

0. Écrit à l'avant&& Compréhension personnelle que les systèmes de conduite autonome s'appuient sur des technologies avancées de perception, de prise de décision et de contrôle, en utilisant divers capteurs (tels que caméras, lidar, radar, etc.) pour percevoir l'environnement et en utilisant des algorithmes et des modèles pour une analyse et une prise de décision en temps réel. Cela permet aux véhicules de reconnaître les panneaux de signalisation, de détecter et de suivre d'autres véhicules, de prédire le comportement des piétons, etc., permettant ainsi de fonctionner en toute sécurité et de s'adapter à des environnements de circulation complexes. Cette technologie attire actuellement une grande attention et est considérée comme un domaine de développement important pour l'avenir des transports. . un. Mais ce qui rend la conduite autonome difficile, c'est de trouver comment faire comprendre à la voiture ce qui se passe autour d'elle. Cela nécessite que l'algorithme de détection d'objets tridimensionnels du système de conduite autonome puisse percevoir et décrire avec précision les objets dans l'environnement, y compris leur emplacement,

Le papier Stable Diffusion 3 est enfin publié, et les détails architecturaux sont révélés. Cela aidera-t-il à reproduire Sora ? Le papier Stable Diffusion 3 est enfin publié, et les détails architecturaux sont révélés. Cela aidera-t-il à reproduire Sora ? Mar 06, 2024 pm 05:34 PM

L'article de StableDiffusion3 est enfin là ! Ce modèle est sorti il ​​y a deux semaines et utilise la même architecture DiT (DiffusionTransformer) que Sora. Il a fait beaucoup de bruit dès sa sortie. Par rapport à la version précédente, la qualité des images générées par StableDiffusion3 a été considérablement améliorée. Il prend désormais en charge les invites multithèmes, et l'effet d'écriture de texte a également été amélioré et les caractères tronqués n'apparaissent plus. StabilityAI a souligné que StableDiffusion3 est une série de modèles avec des tailles de paramètres allant de 800M à 8B. Cette plage de paramètres signifie que le modèle peut être exécuté directement sur de nombreux appareils portables, réduisant ainsi considérablement l'utilisation de l'IA.

Cet article vous suffit pour en savoir plus sur la conduite autonome et la prédiction de trajectoire ! Cet article vous suffit pour en savoir plus sur la conduite autonome et la prédiction de trajectoire ! Feb 28, 2024 pm 07:20 PM

La prédiction de trajectoire joue un rôle important dans la conduite autonome. La prédiction de trajectoire de conduite autonome fait référence à la prédiction de la trajectoire de conduite future du véhicule en analysant diverses données pendant le processus de conduite du véhicule. En tant que module central de la conduite autonome, la qualité de la prédiction de trajectoire est cruciale pour le contrôle de la planification en aval. La tâche de prédiction de trajectoire dispose d'une riche pile technologique et nécessite une connaissance de la perception dynamique/statique de la conduite autonome, des cartes de haute précision, des lignes de voie, des compétences en architecture de réseau neuronal (CNN&GNN&Transformer), etc. Il est très difficile de démarrer ! De nombreux fans espèrent se lancer dans la prédiction de trajectoire le plus tôt possible et éviter les pièges. Aujourd'hui, je vais faire le point sur quelques problèmes courants et des méthodes d'apprentissage introductives pour la prédiction de trajectoire ! Connaissances introductives 1. Existe-t-il un ordre d'entrée pour les épreuves de prévisualisation ? R : Regardez d’abord l’enquête, p

SIMPL : un benchmark de prédiction de mouvement multi-agents simple et efficace pour la conduite autonome SIMPL : un benchmark de prédiction de mouvement multi-agents simple et efficace pour la conduite autonome Feb 20, 2024 am 11:48 AM

Titre original : SIMPL : ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving Lien article : https://arxiv.org/pdf/2402.02519.pdf Lien code : https://github.com/HKUST-Aerial-Robotics/SIMPL Affiliation de l'auteur : Université des sciences de Hong Kong et technologie Idée DJI Paper : cet article propose une base de référence de prédiction de mouvement (SIMPL) simple et efficace pour les véhicules autonomes. Par rapport au cent agent traditionnel

NuScenes dernier SOTA SparseAD : les requêtes clairsemées contribuent à une conduite autonome efficace de bout en bout ! NuScenes dernier SOTA SparseAD : les requêtes clairsemées contribuent à une conduite autonome efficace de bout en bout ! Apr 17, 2024 pm 06:22 PM

Écrit à l'avant et point de départ Le paradigme de bout en bout utilise un cadre unifié pour réaliser plusieurs tâches dans les systèmes de conduite autonome. Malgré la simplicité et la clarté de ce paradigme, les performances des méthodes de conduite autonome de bout en bout sur les sous-tâches sont encore loin derrière les méthodes à tâche unique. Dans le même temps, les fonctionnalités de vue à vol d'oiseau (BEV) denses, largement utilisées dans les méthodes de bout en bout précédentes, rendent difficile l'adaptation à davantage de modalités ou de tâches. Un paradigme de conduite autonome de bout en bout (SparseAD) centré sur la recherche clairsemée est proposé ici, dans lequel la recherche clairsemée représente entièrement l'ensemble du scénario de conduite, y compris l'espace, le temps et les tâches, sans aucune représentation BEV dense. Plus précisément, une architecture clairsemée unifiée est conçue pour la connaissance des tâches, notamment la détection, le suivi et la cartographie en ligne. De plus, lourd

Parlons des systèmes de conduite autonome de bout en bout et de nouvelle génération, ainsi que de quelques malentendus sur la conduite autonome de bout en bout ? Parlons des systèmes de conduite autonome de bout en bout et de nouvelle génération, ainsi que de quelques malentendus sur la conduite autonome de bout en bout ? Apr 15, 2024 pm 04:13 PM

Au cours du mois dernier, pour des raisons bien connues, j'ai eu des échanges très intensifs avec divers professeurs et camarades de classe du secteur. Un sujet inévitable dans l'échange est naturellement le populaire Tesla FSDV12 de bout en bout. Je voudrais profiter de cette occasion pour trier certaines de mes pensées et opinions en ce moment pour votre référence et votre discussion. Comment définir un système de conduite autonome de bout en bout et quels problèmes devraient être résolus de bout en bout ? Selon la définition la plus traditionnelle, un système de bout en bout fait référence à un système qui saisit les informations brutes des capteurs et génère directement les variables pertinentes pour la tâche. Par exemple, en reconnaissance d'images, CNN peut être appelé de bout en bout par rapport à la méthode traditionnelle d'extraction de caractéristiques + classificateur. Dans les tâches de conduite autonome, saisir les données de divers capteurs (caméra/LiDAR

See all articles