Table des matières
Quelques extensions :
Maison Périphériques technologiques IA Comment résoudre le problème de la longue traîne dans les scénarios de conduite autonome ?

Comment résoudre le problème de la longue traîne dans les scénarios de conduite autonome ?

Jun 02, 2024 pm 02:44 PM
自动驾驶 场景

Lors de l'interview d'hier, on m'a demandé si j'avais déjà posé des questions à longue traîne, j'ai donc pensé donner un bref résumé.

Le problème de la longue traîne des voitures autonomes fait référence aux cas limites dans les voitures autonomes, c'est-à-dire aux scénarios possibles avec une faible probabilité d'occurrence. Le problème perçu de la longue traîne est l’une des principales raisons limitant actuellement le domaine de conception opérationnelle des véhicules autonomes intelligents à véhicule unique. L'architecture sous-jacente et la plupart des problèmes techniques de la conduite autonome ont été résolus, et les 5 % restants des problèmes à longue traîne sont progressivement devenus la clé pour restreindre le développement de la conduite autonome. Ces problèmes incluent une variété de scénarios fragmentés, de situations extrêmes et de comportements humains imprévisibles.

Scénarios Edge dans la conduite autonome

La « longue traîne » fait référence aux cas Edge dans les véhicules autonomes (AV). Les cas Edge sont des scénarios possibles avec une faible probabilité d'occurrence. Ces événements rares sont souvent omis dans les ensembles de données car ils se produisent moins fréquemment et sont plus uniques. Si les humains sont naturellement doués pour gérer les cas extrêmes, on ne peut pas en dire autant de l’IA. Les facteurs pouvant provoquer des scènes de bordure comprennent : des camions ou des véhicules de forme spéciale avec des saillies, des véhicules effectuant des virages serrés, conduisant dans des foules bondées, des piétons marchant sur la route, des conditions météorologiques extrêmes ou de mauvaises conditions d'éclairage, des personnes tenant des parapluies, des personnes dans des voitures, puis des cartons en mouvement, des chutes d'arbres. au milieu de la route, etc.

Exemple :

    Placez un film transparent devant la voiture, l'objet transparent sera-t-il reconnu et le véhicule ralentira-t-il
  1. La société lidar Aeye a lancé un défi, comment la conduite autonome gère-t-elle ? un ballon flottant au milieu de la route ? Les voitures sans conducteur L4 ont tendance à éviter les collisions. Dans ce cas, elles prendront des mesures d’évitement ou freineront pour éviter des accidents inutiles. Le ballon est un objet mou et peut passer directement sans aucun obstacle.

Méthodes pour résoudre le problème de la longue traîne

Les données synthétiques sont un grand concept, et les données perceptuelles (nerf, simulation de caméra/capteur) ne sont que l'une des branches les plus remarquables. Dans l’industrie, les données synthétiques sont depuis longtemps devenues la réponse standard en matière de simulation de comportement à longue traîne. Les données synthétiques, ou suréchantillonnage de signaux clairsemés, sont l’une des premières solutions au problème de la longue traîne. La capacité à longue traîne est le produit de la capacité de généralisation du modèle et de la quantité d’informations contenues dans les données.

Solution Tesla :

Utiliser des données synthétiques pour générer des scènes de bord afin d'augmenter l'ensemble de données Principe du moteur de données : Détecter d'abord les inexactitudes dans le modèle existant, puis utiliser ce cas de classe ajouté à ses tests unitaires . Il collecte également davantage de données sur des cas similaires pour recycler le modèle. Cette approche itérative lui permet de capturer autant de cas extrêmes que possible. Le principal défi dans la création de cas extrêmes est que le coût de la collecte et de l'étiquetage des cas extrêmes est relativement élevé, et l'autre est que le comportement de collecte peut être très dangereux, voire impossible à réaliser.

Solution NVIDIA :

NVIDIA a récemment proposé une approche stratégique appelée "Imitation Training" (photo ci-dessous). Dans cette approche, des cas réels de défaillance du système sont recréés dans un environnement simulé, puis utilisés comme données de formation pour les véhicules autonomes. Ce cycle est répété jusqu'à ce que les performances du modèle convergent. Le but de cette approche est d’améliorer la robustesse du système de conduite autonome en simulant en continu des scénarios de pannes. La formation par simulation permet aux développeurs de mieux comprendre et résoudre différents scénarios de défaillance dans le monde réel. De plus, il peut générer rapidement de grandes quantités de données d’entraînement pour améliorer les performances du modèle. En répétant ce cycle,

Comment résoudre le problème de la longue traîne dans les scénarios de conduite autonome ?

Dans la scène réelle suivante, à cause du camion trop haut (en haut) et de la partie saillante du véhicule bloquant le véhicule arrière (en bas), le châssis du véhicule est perdu lorsque le modèle est sortie et devient une scène de bord Après amélioration via NVIDIA, le modèle peut générer des cadres de délimitation corrects dans ce cas de bord.

Comment résoudre le problème de la longue traîne dans les scénarios de conduite autonome ?

Quelques réflexions :

Q : Les données synthétiques sont-elles précieuses ?

A : La valeur ici est divisée en deux types. Le premier est l'efficacité du test, c'est-à-dire tester si certaines lacunes dans l'algorithme de détection peuvent être trouvées dans la scène générée. Le second est l'efficacité de la formation, c'est-à-dire la scène générée. est utilisé Si la formation de l'algorithme peut également améliorer efficacement les performances.

Q : Comment utiliser les données virtuelles pour améliorer les performances ? Est-il vraiment nécessaire d'ajouter des données factices à l'ensemble d'entraînement ? Son ajout entraînera-t-il une régression des performances ?

A : Il est difficile de répondre à ces questions, c'est pourquoi de nombreuses solutions différentes ont été proposées pour améliorer la précision de l'entraînement :

  • Entraînement hybride : ajoutez différentes proportions de données virtuelles aux données réelles pour améliorer les performances.
  • Transfert d'apprentissage : utilisez des données réelles pour pré-entraîner le modèle, puis gelez certaines couches, puis ajoutez des données mixtes pour l'entraînement.
  • Apprentissage par imitation : il est également très naturel de concevoir des scénarios d'erreurs de modèle et de générer des données, améliorant ainsi progressivement les performances du modèle. Lors de la collecte de données réelle et de la formation du modèle, certaines données supplémentaires sont également collectées de manière ciblée pour améliorer les performances.

Quelques extensions :

Pour évaluer en profondeur la robustesse d'un système d'IA, les tests unitaires doivent inclure à la fois des cas généraux et des cas extrêmes. Cependant, certains cas extrêmes peuvent ne pas être disponibles à partir des ensembles de données réels existants. Pour ce faire, les praticiens de l’IA peuvent utiliser des données synthétiques à des fins de tests.

Un exemple est ParallelEye-CS, un ensemble de données synthétiques utilisé pour tester l'intelligence visuelle des véhicules autonomes. L'avantage de la création de données synthétiques par rapport à l'utilisation de données du monde réel réside dans le contrôle multidimensionnel de la scène pour chaque image.

Les données synthétiques constitueront une solution viable pour les cas extrêmes dans les modèles audiovisuels de production. Il complète les ensembles de données du monde réel avec des cas extrêmes, garantissant que l'AV reste robuste même en cas d'événements inhabituels. Il est également plus évolutif, moins sujet aux erreurs et moins cher que les données du monde réel.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Comment réparer l'audio si vous n'entendez personne
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Où trouver la courte de la grue à atomide atomique
1 Il y a quelques semaines By DDD

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Pourquoi le Gaussian Splatting est-il si populaire dans la conduite autonome que le NeRF commence à être abandonné ? Pourquoi le Gaussian Splatting est-il si populaire dans la conduite autonome que le NeRF commence à être abandonné ? Jan 17, 2024 pm 02:57 PM

Écrit ci-dessus et compréhension personnelle de l'auteur Le Gaussiansplatting tridimensionnel (3DGS) est une technologie transformatrice qui a émergé dans les domaines des champs de rayonnement explicites et de l'infographie ces dernières années. Cette méthode innovante se caractérise par l’utilisation de millions de gaussiennes 3D, ce qui est très différent de la méthode du champ de rayonnement neuronal (NeRF), qui utilise principalement un modèle implicite basé sur les coordonnées pour mapper les coordonnées spatiales aux valeurs des pixels. Avec sa représentation explicite de scènes et ses algorithmes de rendu différenciables, 3DGS garantit non seulement des capacités de rendu en temps réel, mais introduit également un niveau de contrôle et d'édition de scène sans précédent. Cela positionne 3DGS comme un révolutionnaire potentiel pour la reconstruction et la représentation 3D de nouvelle génération. À cette fin, nous fournissons pour la première fois un aperçu systématique des derniers développements et préoccupations dans le domaine du 3DGS.

Comment résoudre le problème de la longue traîne dans les scénarios de conduite autonome ? Comment résoudre le problème de la longue traîne dans les scénarios de conduite autonome ? Jun 02, 2024 pm 02:44 PM

Hier, lors de l'entretien, on m'a demandé si j'avais posé des questions à longue traîne, j'ai donc pensé faire un bref résumé. Le problème à longue traîne de la conduite autonome fait référence aux cas extrêmes dans les véhicules autonomes, c'est-à-dire à des scénarios possibles avec une faible probabilité d'occurrence. Le problème perçu de la longue traîne est l’une des principales raisons limitant actuellement le domaine de conception opérationnelle des véhicules autonomes intelligents à véhicule unique. L'architecture sous-jacente et la plupart des problèmes techniques de la conduite autonome ont été résolus, et les 5 % restants des problèmes à longue traîne sont progressivement devenus la clé pour restreindre le développement de la conduite autonome. Ces problèmes incluent une variété de scénarios fragmentés, de situations extrêmes et de comportements humains imprévisibles. La « longue traîne » des scénarios limites dans la conduite autonome fait référence aux cas limites dans les véhicules autonomes (VA). Les cas limites sont des scénarios possibles avec une faible probabilité d'occurrence. ces événements rares

Choisir une caméra ou un lidar ? Une étude récente sur la détection robuste d'objets 3D Choisir une caméra ou un lidar ? Une étude récente sur la détection robuste d'objets 3D Jan 26, 2024 am 11:18 AM

0. Écrit à l'avant&& Compréhension personnelle que les systèmes de conduite autonome s'appuient sur des technologies avancées de perception, de prise de décision et de contrôle, en utilisant divers capteurs (tels que caméras, lidar, radar, etc.) pour percevoir l'environnement et en utilisant des algorithmes et des modèles pour une analyse et une prise de décision en temps réel. Cela permet aux véhicules de reconnaître les panneaux de signalisation, de détecter et de suivre d'autres véhicules, de prédire le comportement des piétons, etc., permettant ainsi de fonctionner en toute sécurité et de s'adapter à des environnements de circulation complexes. Cette technologie attire actuellement une grande attention et est considérée comme un domaine de développement important pour l'avenir des transports. . un. Mais ce qui rend la conduite autonome difficile, c'est de trouver comment faire comprendre à la voiture ce qui se passe autour d'elle. Cela nécessite que l'algorithme de détection d'objets tridimensionnels du système de conduite autonome puisse percevoir et décrire avec précision les objets dans l'environnement, y compris leur emplacement,

Cet article vous suffit pour en savoir plus sur la conduite autonome et la prédiction de trajectoire ! Cet article vous suffit pour en savoir plus sur la conduite autonome et la prédiction de trajectoire ! Feb 28, 2024 pm 07:20 PM

La prédiction de trajectoire joue un rôle important dans la conduite autonome. La prédiction de trajectoire de conduite autonome fait référence à la prédiction de la trajectoire de conduite future du véhicule en analysant diverses données pendant le processus de conduite du véhicule. En tant que module central de la conduite autonome, la qualité de la prédiction de trajectoire est cruciale pour le contrôle de la planification en aval. La tâche de prédiction de trajectoire dispose d'une riche pile technologique et nécessite une connaissance de la perception dynamique/statique de la conduite autonome, des cartes de haute précision, des lignes de voie, des compétences en architecture de réseau neuronal (CNN&GNN&Transformer), etc. Il est très difficile de démarrer ! De nombreux fans espèrent se lancer dans la prédiction de trajectoire le plus tôt possible et éviter les pièges. Aujourd'hui, je vais faire le point sur quelques problèmes courants et des méthodes d'apprentissage introductives pour la prédiction de trajectoire ! Connaissances introductives 1. Existe-t-il un ordre d'entrée pour les épreuves de prévisualisation ? R : Regardez d’abord l’enquête, p

SIMPL : un benchmark de prédiction de mouvement multi-agents simple et efficace pour la conduite autonome SIMPL : un benchmark de prédiction de mouvement multi-agents simple et efficace pour la conduite autonome Feb 20, 2024 am 11:48 AM

Titre original : SIMPL : ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving Lien article : https://arxiv.org/pdf/2402.02519.pdf Lien code : https://github.com/HKUST-Aerial-Robotics/SIMPL Affiliation de l'auteur : Université des sciences de Hong Kong et technologie Idée DJI Paper : cet article propose une base de référence de prédiction de mouvement (SIMPL) simple et efficace pour les véhicules autonomes. Par rapport au cent agent traditionnel

NuScenes dernier SOTA SparseAD : les requêtes clairsemées contribuent à une conduite autonome efficace de bout en bout ! NuScenes dernier SOTA SparseAD : les requêtes clairsemées contribuent à une conduite autonome efficace de bout en bout ! Apr 17, 2024 pm 06:22 PM

Écrit à l'avant et point de départ Le paradigme de bout en bout utilise un cadre unifié pour réaliser plusieurs tâches dans les systèmes de conduite autonome. Malgré la simplicité et la clarté de ce paradigme, les performances des méthodes de conduite autonome de bout en bout sur les sous-tâches sont encore loin derrière les méthodes à tâche unique. Dans le même temps, les fonctionnalités de vue à vol d'oiseau (BEV) denses, largement utilisées dans les méthodes de bout en bout précédentes, rendent difficile l'adaptation à davantage de modalités ou de tâches. Un paradigme de conduite autonome de bout en bout (SparseAD) centré sur la recherche clairsemée est proposé ici, dans lequel la recherche clairsemée représente entièrement l'ensemble du scénario de conduite, y compris l'espace, le temps et les tâches, sans aucune représentation BEV dense. Plus précisément, une architecture clairsemée unifiée est conçue pour la connaissance des tâches, notamment la détection, le suivi et la cartographie en ligne. De plus, lourd

Parlons des systèmes de conduite autonome de bout en bout et de nouvelle génération, ainsi que de quelques malentendus sur la conduite autonome de bout en bout ? Parlons des systèmes de conduite autonome de bout en bout et de nouvelle génération, ainsi que de quelques malentendus sur la conduite autonome de bout en bout ? Apr 15, 2024 pm 04:13 PM

Au cours du mois dernier, pour des raisons bien connues, j'ai eu des échanges très intensifs avec divers professeurs et camarades de classe du secteur. Un sujet inévitable dans l'échange est naturellement le populaire Tesla FSDV12 de bout en bout. Je voudrais profiter de cette occasion pour trier certaines de mes pensées et opinions en ce moment pour votre référence et votre discussion. Comment définir un système de conduite autonome de bout en bout et quels problèmes devraient être résolus de bout en bout ? Selon la définition la plus traditionnelle, un système de bout en bout fait référence à un système qui saisit les informations brutes des capteurs et génère directement les variables pertinentes pour la tâche. Par exemple, en reconnaissance d'images, CNN peut être appelé de bout en bout par rapport à la méthode traditionnelle d'extraction de caractéristiques + classificateur. Dans les tâches de conduite autonome, saisir les données de divers capteurs (caméra/LiDAR

FisheyeDetNet : le premier algorithme de détection de cible basé sur une caméra fisheye FisheyeDetNet : le premier algorithme de détection de cible basé sur une caméra fisheye Apr 26, 2024 am 11:37 AM

La détection de cibles est un problème relativement mature dans les systèmes de conduite autonome, parmi lesquels la détection des piétons est l'un des premiers algorithmes à être déployés. Des recherches très complètes ont été menées dans la plupart des articles. Cependant, la perception de la distance à l’aide de caméras fisheye pour une vue panoramique est relativement moins étudiée. En raison de la distorsion radiale importante, la représentation standard du cadre de délimitation est difficile à mettre en œuvre dans les caméras fisheye. Pour alléger la description ci-dessus, nous explorons les conceptions étendues de boîtes englobantes, d'ellipses et de polygones généraux dans des représentations polaires/angulaires et définissons une métrique de segmentation d'instance mIOU pour analyser ces représentations. Le modèle fisheyeDetNet proposé avec une forme polygonale surpasse les autres modèles et atteint simultanément 49,5 % de mAP sur l'ensemble de données de la caméra fisheye Valeo pour la conduite autonome.

See all articles