Table des matières
Aperçu
1. Méthode traditionnelle non supervisée
1.1 Popularité
1.2 Cohésion
1.3 La richesse des caractères voisins gauche et droit
2. Limites de la méthode classique
3. Nouvelle découverte de mots basée sur l'apprentissage en profondeur
3.1 Tableau de distribution de probabilité de fréquence des mots
3.2 Algorithme classique de segmentation d'images
3.3 Nouvel algorithme de découverte de mots basé sur un réseau convolutif
4. Analyse interne du modèle
5. Espace d'optimisation
Maison Périphériques technologiques IA Nouvel algorithme de découverte de mots basé sur CNN

Nouvel algorithme de découverte de mots basé sur CNN

Apr 11, 2023 pm 11:01 PM
算法 新词发现 全卷积网络模型

​Auteur | mczhao, responsable R&D senior de Ctrip, se concentre sur le domaine de la technologie de traitement du langage naturel.

Aperçu

Avec l'émergence continue de points chauds de consommation et de nouveaux mèmes de célébrités sur Internet, certains mots qui n'ont jamais été vus auparavant apparaissent souvent dans les tâches PNL sur les plateformes de commerce électronique. Ces mots ne font pas partie du vocabulaire existant du système et sont appelés « mots non enregistrés ».

D'une part, le manque de mots dans le lexique affecte la qualité de segmentation des mots de certains segmenteurs de mots basés sur le lexique, ce qui affecte indirectement la qualité du rappel de texte et des invites de surbrillance, c'est-à-dire la précision de la recherche de texte de l'utilisateur. et la qualité des résultats de recherche.

D'un autre côté, dans l'algorithme d'apprentissage profond PNL traditionnel BERT/Transformer, etc., les vecteurs de mots sont souvent utilisés à la place des vecteurs de mots lors du traitement du chinois. En théorie, l'effet de l'utilisation de vecteurs de mots devrait être meilleur, mais en raison des mots non enregistrés, l'effet de l'utilisation de vecteurs de mots dans la pratique est meilleur. Si le vocabulaire est plus complet, l'effet de l'utilisation de vecteurs de mots sera meilleur que celui de l'utilisation de vecteurs de mots.

Pour résumer, la découverte de nouveaux mots est un problème que nous devons résoudre en ce moment.

1. Méthode traditionnelle non supervisée

Il existe déjà des solutions relativement matures à ce problème de découverte de nouveaux mots chinois dans l'industrie. L'entrée est un corpus, et après avoir segmenté ces textes dans NGram, des segments candidats sont générés. Calculez certaines caractéristiques statistiques de ces fragments, puis déterminez si ce fragment est un mot basé sur ces caractéristiques.

L'approche dominante de l'industrie consiste à compter et à observer ces trois indicateurs : popularité, cohésion et richesse des personnages adjacents gauche et droit. Il existe de nombreux articles décrivant ces trois indicateurs sur Internet. Voici une brève introduction Pour plus de détails, vous pouvez vous référer aux deux nouveaux articles sur la découverte de mots de Hello NLP et Smooth NLP.

1.1 Popularité

Utilisez la fréquence des mots pour exprimer la popularité. Comptez les temps d'occurrence de tous les fragments dans tous les corpus, et ces fragments à haute fréquence constituent souvent un seul mot.

1.2 Cohésion

Utilisez des informations mutuelles ponctuelles pour mesurer la cohésion :

Nouvel algorithme de découverte de mots basé sur CNN

Par exemple, nous déterminons si Hanting est un mot, log(P("Hanting") /P("汉")P("tribunal")). La probabilité que Hanting devienne un mot est directement proportionnelle à la popularité de « Hanting » et inversement proportionnelle à la popularité des mots « Han » et « ting ». Ceci est facile à comprendre. Par exemple, le caractère le plus courant « 的 » dans les caractères chinois. La probabilité de faire correspondre n'importe quel caractère chinois avec « 的 » est très élevée, mais cela ne signifie pas que « x de » ou « 的x ». est le même mot. Ici, la popularité du seul mot «的» joue un rôle inhibiteur.

1.3 La richesse des caractères voisins gauche et droit

L'entropie des voisins gauche et droit représente la richesse des caractères gauche et droit. L'entropie d'adjacence gauche et droite est le caractère aléatoire de la distribution des mots apparaissant à gauche ou à droite du fragment de mot candidat. Vous pouvez séparer l’entropie de gauche et l’entropie de droite, ou vous pouvez combiner les deux entropies en un seul indicateur.

Nouvel algorithme de découverte de mots basé sur CNN

Par exemple, la popularité et la cohésion du segment « Shangri-La » sont très élevées, et la popularité et la cohésion du sous-segment correspondant « Shangri-La » sont également très élevées, mais parce que "Shangri-La" Dans la plupart des cas, le mot "La" apparaît après "里". Son entropie de contiguïté droite est très faible, ce qui inhibe la formation de ses mots. On peut juger que les trois caractères "shangri" ne peuvent pas former un mot. seul.

2. Limites de la méthode classique

Le problème de la méthode classique est qu'elle nécessite un réglage manuel des paramètres de seuil. Une fois qu'un expert en PNL a compris la distribution de probabilité des fragments dans le corpus actuel, il combine ces indicateurs à l'aide de formules ou les utilise indépendamment, puis définit un seuil comme norme de jugement. Les résultats du jugement utilisant cette norme peuvent également atteindre une grande précision.

Mais la distribution de probabilité ou la fréquence des mots n'est pas statique. À mesure que le corpus devient de plus en plus abondant, ou que la popularité pondérée du corpus (généralement la popularité du produit correspondant) fluctue, les paramètres et les seuils de la formule sont fixés par les experts. des changements sont également nécessaires. Cela gaspille beaucoup de main d’œuvre et transforme les ingénieurs en intelligence artificielle en de simples peaufineurs.

3. Nouvelle découverte de mots basée sur l'apprentissage en profondeur

3.1 Tableau de distribution de probabilité de fréquence des mots

Les trois indicateurs des algorithmes existants mentionnés ci-dessus dans l'industrie n'ont qu'une seule caractéristique source fondamentale, à savoir le mot fréquence. Dans les méthodes statistiques, certaines statistiques simples et clés sont généralement affichées sous forme d'images, telles que des histogrammes, des boîtes à moustaches, etc. Même s'il n'y a pas d'intervention de modèle, les gens peuvent toujours prendre les bonnes décisions en un coup d'œil. Vous pouvez découper le corpus en fragments de longueur limitée, normaliser la fréquence des mots des fragments entre 0 et 255 et le mapper dans une matrice bidimensionnelle. Les lignes représentent les caractères de début et les colonnes représentent les caractères de fin. est un fragment, et le pixel La luminosité du point est la popularité du fragment de mot candidat.

Nouvel algorithme de découverte de mots basé sur CNN

L'image ci-dessus est le diagramme de distribution de probabilité de fréquence des mots de la phrase courte "Pudong Airport Ramada Hotel". Nous avons été agréablement surpris de constater qu'à l'œil nu, nous pouvons distinguer approximativement des blocs de triangles rectangles isocèles plus brillants, tels que : « Pudong », « Aéroport de Pudong », « Aéroport », « Hôtel Ramada », etc. Ces blocs peuvent déterminer que le fragment correspondant est le mot dont nous avons besoin.

3.2 Algorithme classique de segmentation d'images

En observant la carte de distribution de probabilité de fréquence des mots, nous pouvons transformer un problème de segmentation de phrases courtes en un problème de segmentation d'images. Les premiers algorithmes de segmentation d'images sont similaires aux nouveaux algorithmes de découverte de mots mentionnés ci-dessus. Ils sont également des algorithmes basés sur des seuils pour détecter les changements de niveaux de gris. Avec le développement de la technologie, les algorithmes d'apprentissage en profondeur sont désormais généralement utilisés, et le plus célèbre est le. Algorithme de segmentation d'images U-Net.

Nouvel algorithme de découverte de mots basé sur CNN

La première moitié d'U-Net utilise le sous-échantillonnage convolutif pour extraire les caractéristiques de plusieurs couches de granularités différentes, et la seconde moitié est suréchantillonnée pour concaténer ces caractéristiques à la même résolution, et enfin via une couche de connexion complète +Softmax obtient des résultats de classification au niveau des pixels.

3.3 Nouvel algorithme de découverte de mots basé sur un réseau convolutif

La segmentation de la carte de distribution de probabilité de fréquence des mots est similaire à la segmentation du graphique. Les deux parties sont découpées avec des positions adjacentes et des niveaux de gris similaires. Par conséquent, pour segmenter des phrases courtes, vous pouvez également vous référer à l’algorithme de segmentation d’images et utiliser un réseau entièrement convolutif. La raison pour laquelle nous utilisons la convolution est que, que nous coupions des phrases courtes ou des images, nous accordons plus d'attention aux informations locales, c'est-à-dire aux pixels proches de la pointe. La raison pour laquelle nous utilisons des réseaux multicouches est que le regroupement multicouche peut montrer le jugement de seuil des différentes caractéristiques des couches. Par exemple, lorsque nous découpons le terrain de la carte, nous devons prendre en compte non seulement la pente (dérivée première/différence), mais également la. changement de pente (deuxième ordre). Dérivée/différence), les deux sont seuillés respectivement et la méthode de combinaison n'est pas une simple pondération linéaire mais un réseau série.

Pour le nouveau scénario de découverte de mots, nous concevons l'algorithme suivant :

  • Remplissez d'abord la carte de distribution de fréquence des mots de la phrase courte avec 0 à 24x24
  • Il y a d'abord deux couches convolutives 3x3 et sortez 4 ; canaux ;
  • Concaténez les deux couches convolutives, effectuez une autre convolution 3x3 et produisez un seul canal ;
  • La fonction de perte utilise logistique=T, donc la dernière couche peut être utilisée pour la classification sans sortie softmax ;

Nouvel algorithme de découverte de mots basé sur CNN

Par rapport à U-Net, il existe les différences suivantes :

1) Le sous-échantillonnage et le sur-échantillonnage sont abandonnés, La raison est que les phrases courtes généralement utilisées pour la segmentation sont relativement courtes et la distribution de fréquence des mots. La résolution de l'image n'est pas élevée, le modèle est donc simplifié.

2) U-Net est un tri-catégorie (bloc 1, bloc 2, sur le bord), Cet algorithme ne nécessite que deux catégories (que le pixel soit un mot). Ainsi, les résultats de sortie finaux sont également différents. U-Net génère des blocs continus et des lignes de séparation, et nous avons seulement besoin de savoir si un certain point est positif.

L'image ci-dessous est le résultat prédit par le modèle après avoir entraîné le modèle. On peut voir que dans les résultats de sortie, les pixels correspondant aux trois mots « Shanghai » (ligne supérieure, colonne mer), « Hongqiao » et « Business District » ont été identifiés.

Nouvel algorithme de découverte de mots basé sur CNN

Utilisez le modèle formé et saisissez les noms des points de repère dans la base de données des points de repère de Ctrip. Certains nouveaux mots peuvent être automatiquement segmentés et découverts, comme le montre l'image ci-dessous. Bien qu'il existe quelques cas problématiques, la précision globale. ça va.

Nouvel algorithme de découverte de mots basé sur CNN

Après avoir importé ces mots dans le thésaurus, la précision de la segmentation des mots de recherche augmente et la couverture du thésaurus des résultats de la segmentation des mots augmente. Étant donné que la segmentation des mots de recherche a généralement tendance à sur-rappeler et à éliminer les rappels manqués, l'industrie a une approche plus radicale du rappel par segmentation de mots, et la précision est généralement résolue par un tri ultérieur. Par conséquent, la précision de la segmentation des mots s’est améliorée, mais aux yeux des utilisateurs, la précision des résultats de recherche ne s’est pas améliorée de manière significative. Cependant, il peut résoudre certains problèmes de mise en évidence incorrecte causés par des erreurs de segmentation de mots.

4. Analyse interne du modèle

Si vous souhaitez explorer le fonctionnement du modèle, vous pouvez visualiser le noyau de convolution de la couche intermédiaire. Nous simplifions d'abord le nombre de noyaux de convolution dans la couche convolutive du modèle de 4 à 1. Après l'entraînement, affichez la couche intermédiaire via l'API de TensorFlow : model.get_layer('Conv2').__dict__. Nous avons constaté que le noyau de convolution de la couche Conv2 est le suivant :

Nouvel algorithme de découverte de mots basé sur CNN

Vous pouvez voir que la première et la deuxième lignes ont des effets opposés sur le modèle, correspondant à la ligne précédente du pixel moins le courant rangée. Différence (avec poids), si la différence en niveaux de gris est plus grande, la chaîne représentée par ce pixel est plus susceptible d'être un mot.

Vous pouvez également voir que la valeur absolue de 0,04505884 dans la première ligne et la deuxième colonne est relativement petite, probablement parce que les paramètres positifs de la première ligne moins la deuxième ligne et les paramètres négatifs de la troisième colonne moins la deuxième Les colonnes s'annulent.

5. Espace d'optimisation

Cet article décrit un modèle de réseau entièrement convolutif avec une structure très simple, et il y a encore beaucoup de place à l'amélioration.

Tout d'abord, élargissez la plage de sélection des fonctionnalités. Par exemple, la fonctionnalité d'entrée dans cet article est uniquement la fréquence des mots. Si l'entropie de contiguïté gauche et droite est également incluse dans la fonctionnalité d'entrée, l'effet de segmentation sera plus précis.

La seconde est d'augmenter la profondeur du réseau. Grâce à l'analyse du modèle, nous avons constaté que la première couche de convolution sert principalement à traiter les cas causés par des pixels remplis de 0. Il n'y a qu'une seule couche de convolution qui se concentre réellement sur la chaleur réelle. S'il s'agit d'un noyau de convolution 3x3, seul le premier ordre est visible pour le résultat de différence, la deuxième ligne et la deuxième colonne avant et après le pixel actuel ne sont pas prises en compte. Vous pouvez étendre de manière appropriée la taille du noyau de convolution ou approfondir le réseau pour agrandir le champ de vision du modèle. Mais l’approfondissement du réseau entraînera également le problème du surapprentissage.

Enfin, ce modèle peut non seulement être utilisé pour compléter le vocabulaire afin d'améliorer l'effet de segmentation des mots, mais peut également être directement utilisé comme référence pour la segmentation des mots. Ce modèle peut être appliqué à la fois dans le rappel du mot candidat et dans le mot. étapes de notation du chemin de segmentation du processus de segmentation de mots. Les résultats de prédiction du modèle.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Comment réparer l'audio si vous n'entendez personne
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Comment déverrouiller tout dans Myrise
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

CLIP-BEVFormer : superviser explicitement la structure BEVFormer pour améliorer les performances de détection à longue traîne CLIP-BEVFormer : superviser explicitement la structure BEVFormer pour améliorer les performances de détection à longue traîne Mar 26, 2024 pm 12:41 PM

Écrit ci-dessus et compréhension personnelle de l'auteur : À l'heure actuelle, dans l'ensemble du système de conduite autonome, le module de perception joue un rôle essentiel. Le véhicule autonome roulant sur la route ne peut obtenir des résultats de perception précis que via le module de perception en aval. dans le système de conduite autonome, prend des jugements et des décisions comportementales opportuns et corrects. Actuellement, les voitures dotées de fonctions de conduite autonome sont généralement équipées d'une variété de capteurs d'informations de données, notamment des capteurs de caméra à vision panoramique, des capteurs lidar et des capteurs radar à ondes millimétriques pour collecter des informations selon différentes modalités afin d'accomplir des tâches de perception précises. L'algorithme de perception BEV basé sur la vision pure est privilégié par l'industrie en raison de son faible coût matériel et de sa facilité de déploiement, et ses résultats peuvent être facilement appliqués à diverses tâches en aval.

Implémentation d'algorithmes d'apprentissage automatique en C++ : défis et solutions courants Implémentation d'algorithmes d'apprentissage automatique en C++ : défis et solutions courants Jun 03, 2024 pm 01:25 PM

Les défis courants rencontrés par les algorithmes d'apprentissage automatique en C++ incluent la gestion de la mémoire, le multithread, l'optimisation des performances et la maintenabilité. Les solutions incluent l'utilisation de pointeurs intelligents, de bibliothèques de threads modernes, d'instructions SIMD et de bibliothèques tierces, ainsi que le respect des directives de style de codage et l'utilisation d'outils d'automatisation. Des cas pratiques montrent comment utiliser la bibliothèque Eigen pour implémenter des algorithmes de régression linéaire, gérer efficacement la mémoire et utiliser des opérations matricielles hautes performances.

Explorez les principes sous-jacents et la sélection d'algorithmes de la fonction de tri C++ Explorez les principes sous-jacents et la sélection d'algorithmes de la fonction de tri C++ Apr 02, 2024 pm 05:36 PM

La couche inférieure de la fonction de tri C++ utilise le tri par fusion, sa complexité est O(nlogn) et propose différents choix d'algorithmes de tri, notamment le tri rapide, le tri par tas et le tri stable.

L'intelligence artificielle peut-elle prédire la criminalité ? Explorez les capacités de CrimeGPT L'intelligence artificielle peut-elle prédire la criminalité ? Explorez les capacités de CrimeGPT Mar 22, 2024 pm 10:10 PM

La convergence de l’intelligence artificielle (IA) et des forces de l’ordre ouvre de nouvelles possibilités en matière de prévention et de détection de la criminalité. Les capacités prédictives de l’intelligence artificielle sont largement utilisées dans des systèmes tels que CrimeGPT (Crime Prediction Technology) pour prédire les activités criminelles. Cet article explore le potentiel de l’intelligence artificielle dans la prédiction de la criminalité, ses applications actuelles, les défis auxquels elle est confrontée et les éventuelles implications éthiques de cette technologie. Intelligence artificielle et prédiction de la criminalité : les bases CrimeGPT utilise des algorithmes d'apprentissage automatique pour analyser de grands ensembles de données, identifiant des modèles qui peuvent prédire où et quand les crimes sont susceptibles de se produire. Ces ensembles de données comprennent des statistiques historiques sur la criminalité, des informations démographiques, des indicateurs économiques, des tendances météorologiques, etc. En identifiant les tendances qui pourraient échapper aux analystes humains, l'intelligence artificielle peut donner du pouvoir aux forces de l'ordre.

Algorithme de détection amélioré : pour la détection de cibles dans des images de télédétection optique haute résolution Algorithme de détection amélioré : pour la détection de cibles dans des images de télédétection optique haute résolution Jun 06, 2024 pm 12:33 PM

01Aperçu des perspectives Actuellement, il est difficile d'atteindre un équilibre approprié entre efficacité de détection et résultats de détection. Nous avons développé un algorithme YOLOv5 amélioré pour la détection de cibles dans des images de télédétection optique haute résolution, en utilisant des pyramides de caractéristiques multicouches, des stratégies de têtes de détection multiples et des modules d'attention hybrides pour améliorer l'effet du réseau de détection de cibles dans les images de télédétection optique. Selon l'ensemble de données SIMD, le mAP du nouvel algorithme est 2,2 % meilleur que YOLOv5 et 8,48 % meilleur que YOLOX, permettant ainsi d'obtenir un meilleur équilibre entre les résultats de détection et la vitesse. 02 Contexte et motivation Avec le développement rapide de la technologie de télédétection, les images de télédétection optique à haute résolution ont été utilisées pour décrire de nombreux objets à la surface de la Terre, notamment des avions, des voitures, des bâtiments, etc. Détection d'objets dans l'interprétation d'images de télédétection

Pratique et réflexion sur la plateforme multimodale de grands modèles Jiuzhang Yunji DataCanvas Pratique et réflexion sur la plateforme multimodale de grands modèles Jiuzhang Yunji DataCanvas Oct 20, 2023 am 08:45 AM

1. Le développement historique des grands modèles multimodaux. La photo ci-dessus est le premier atelier sur l'intelligence artificielle organisé au Dartmouth College aux États-Unis en 1956. Cette conférence est également considérée comme le coup d'envoi du développement de l'intelligence artificielle. pionniers de la logique symbolique (à l'exception du neurobiologiste Peter Milner au milieu du premier rang). Cependant, cette théorie de la logique symbolique n’a pas pu être réalisée avant longtemps et a même marqué le début du premier hiver de l’IA dans les années 1980 et 1990. Il a fallu attendre la récente mise en œuvre de grands modèles de langage pour découvrir que les réseaux de neurones portent réellement cette pensée logique. Les travaux du neurobiologiste Peter Milner ont inspiré le développement ultérieur des réseaux de neurones artificiels, et c'est pour cette raison qu'il a été invité à y participer. dans ce projet.

Application d'algorithmes dans la construction de 58 plateformes de portraits Application d'algorithmes dans la construction de 58 plateformes de portraits May 09, 2024 am 09:01 AM

1. Contexte de la construction de la plateforme 58 Portraits Tout d'abord, je voudrais partager avec vous le contexte de la construction de la plateforme 58 Portraits. 1. La pensée traditionnelle de la plate-forme de profilage traditionnelle ne suffit plus. La création d'une plate-forme de profilage des utilisateurs s'appuie sur des capacités de modélisation d'entrepôt de données pour intégrer les données de plusieurs secteurs d'activité afin de créer des portraits d'utilisateurs précis. Elle nécessite également l'exploration de données pour comprendre le comportement et les intérêts des utilisateurs. et besoins, et fournir des capacités côté algorithmes ; enfin, il doit également disposer de capacités de plate-forme de données pour stocker, interroger et partager efficacement les données de profil utilisateur et fournir des services de profil. La principale différence entre une plate-forme de profilage d'entreprise auto-construite et une plate-forme de profilage de middle-office est que la plate-forme de profilage auto-construite dessert un seul secteur d'activité et peut être personnalisée à la demande. La plate-forme de mid-office dessert plusieurs secteurs d'activité et est complexe ; modélisation et offre des fonctionnalités plus générales. 2.58 Portraits d'utilisateurs de l'arrière-plan de la construction du portrait sur la plate-forme médiane 58

Ajoutez SOTA en temps réel et montez en flèche ! FastOcc : un algorithme Occ plus rapide et convivial pour le déploiement est là ! Ajoutez SOTA en temps réel et montez en flèche ! FastOcc : un algorithme Occ plus rapide et convivial pour le déploiement est là ! Mar 14, 2024 pm 11:50 PM

Écrit ci-dessus & La compréhension personnelle de l'auteur est que dans le système de conduite autonome, la tâche de perception est un élément crucial de l'ensemble du système de conduite autonome. L'objectif principal de la tâche de perception est de permettre aux véhicules autonomes de comprendre et de percevoir les éléments environnementaux environnants, tels que les véhicules circulant sur la route, les piétons au bord de la route, les obstacles rencontrés lors de la conduite, les panneaux de signalisation sur la route, etc., aidant ainsi en aval modules Prendre des décisions et des actions correctes et raisonnables. Un véhicule doté de capacités de conduite autonome est généralement équipé de différents types de capteurs de collecte d'informations, tels que des capteurs de caméra à vision panoramique, des capteurs lidar, des capteurs radar à ondes millimétriques, etc., pour garantir que le véhicule autonome peut percevoir et comprendre avec précision l'environnement environnant. éléments , permettant aux véhicules autonomes de prendre les bonnes décisions pendant la conduite autonome. Tête

See all articles