Maison Périphériques technologiques IA Surpassant la méthode CVPR 2024, DynRefer réalise plusieurs SOTA dans des tâches de reconnaissance multimodale au niveau régional

Surpassant la méthode CVPR 2024, DynRefer réalise plusieurs SOTA dans des tâches de reconnaissance multimodale au niveau régional

Jun 20, 2024 pm 08:31 PM
产业 DynRefer

Afin d'obtenir une compréhension multimodale de haute précision au niveau régional, cet article propose un schéma de résolution dynamique pour simuler le système cognitif visuel humain.

L'auteur de cet article est du laboratoire LAMP de l'Université de l'Académie chinoise des sciences. Le premier auteur Zhao Yuzhong est doctorant à l'Université de l'Académie chinoise des sciences en 2023, et le co-auteur Liu. Feng est doctorant direct à l'Université de l'Académie chinoise des sciences en 2020. Leurs principaux axes de recherche sont les modèles de langage visuel et la perception visuelle des objets.

Introduction

DynRefer améliore considérablement les capacités de reconnaissance multimodale au niveau régional en simulant le processus cognitif visuel humain. En introduisant le mécanisme de résolution dynamique de l'œil humain, DynRefer peut effectuer simultanément les tâches de reconnaissance de région, de détection d'attributs de région et de sous-titrage au niveau de la région avec un seul modèle, et atteindre les performances SOTA dans toutes les tâches ci-dessus. Parmi eux, il a obtenu 115,7 CIDEr sur la tâche de sous-titrage au niveau régional de l'ensemble de données RefCOCOg, ce qui est nettement supérieur aux méthodes CVPR 2024 telles que RegionGPT, GlaMM, Osprey, Alpha-CLIP, etc.

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA

  • Titre de l'article : DynRefer : Plonger dans les tâches multimodales au niveau régional via la résolution dynamique
  • Lien de l'article : https://arxiv.org/abs/2405.16071
  • Code de l'article : https ://github.com/callsys/DynRefer

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA

Motivation

La tâche multimodale au niveau de la région est dédiée à la conversion de régions d'images spécifiées en descriptions linguistiques cohérentes avec les préférences humaines. Les humains ont une capacité d'adaptation à la résolution lorsqu'ils effectuent des tâches multimodales au niveau régional, c'est-à-dire que la zone d'intérêt est en haute résolution et la zone de non-attention est en basse résolution. Cependant, les grands modèles de langage multimodaux au niveau régional actuels adoptent souvent un schéma de codage à résolution fixe, c'est-à-dire qu'ils codent l'intégralité de l'image, puis extraient les caractéristiques régionales via RoI Align. Cette approche ne dispose pas de la capacité d'adaptation de résolution du système cognitif visuel humain et présente une faible efficacité de codage et une faible capacité pour les zones d'intérêt. Afin d'obtenir une compréhension multimodale de haute précision au niveau régional, nous proposons un schéma de résolution dynamique pour simuler le système cognitif visuel humain, comme le montre la figure ci-dessous.

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA

区 Figure 1 : Comparaison des méthodes multimodales régionales traditionnelles (à gauche) et de la méthode Dynrefer (à droite).

Méthode

1. Simuler une image à résolution dynamique (construction multi-vues).
Étant donné que le modèle de langage visuel pré-entraîné (CLIP) grand public ne peut recevoir qu'une entrée de résolution uniforme, nous simulons une image à résolution dynamique en construisant plusieurs vues à résolution uniforme. L'image a une haute résolution dans la zone de référence et une faible résolution dans la zone de non-référence. Le processus spécifique est illustré à la figure 2. L'image originale x est recadrée et redimensionnée en plusieurs vues candidates. La superficie cultivée est calculée comme
, où . Ici représente le cadre de délimitation de la zone de référence, 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA représente la taille de l'image entière et t représente le coefficient d'interpolation. Pendant la formation, nous sélectionnons au hasard n vues parmi les vues candidates pour simuler les images générées par le regard et les mouvements oculaires rapides. Ces n vues correspondent au coefficient d'interpolation t, qui est 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA. Nous conservons fixement la vue contenant uniquement la région de référence (c'est-à-dire 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA). Il a été prouvé expérimentalement que cette vision aide à préserver les détails régionaux, ce qui est crucial pour toutes les tâches multimodales régionales. 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA
                                                                                                                                                                                                                     Figure 2 : Formation DynRefer (haut ) et inférence (en bas).

2. Incorporation stochastique multi-vues. Le processus spécifique est illustré à la figure 3. Les n vues échantillonnées sont codées en caractéristiques spatiales via CLIP gelé, puis traitées par le module RoI-Align pour obtenir des intégrations de régions, c'est-à-dire 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA. Ceci est illustré sur le côté gauche de la figure 3. Ces incorporations de régions ne sont pas alignées spatialement en raison d'erreurs spatiales introduites par le recadrage, le redimensionnement et RoI-Align. Inspiré par l'opération de convolution déformable, nous proposons un module d'alignement pour réduire le biais en alignant 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA sur 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA, où Surpassant la méthode CVPR 2024, DynRefer réalise plusieurs SOTA dans des tâches de reconnaissance multimodale au niveau régional est la région intégrant l'encodage de vue contenant uniquement la région de référence. Pour chaque région intégrant 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA, elle est d'abord concaténée avec 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA puis une carte de décalage 2D est calculée via une couche convolutive. Les caractéristiques spatiales de 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA sont ensuite rééchantillonnées en fonction du décalage 2D. Enfin, les intégrations de régions alignées sont concaténées le long de la dimension du canal et fusionnées à travers des couches linéaires. La sortie est ensuite compressée via un module de rééchantillonnage visuel, c'est-à-dire Q-former, extrayant ainsi une représentation régionale de la région de référence 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA de l'image originale x (超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA sur la figure 3).

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA

                                                                                                                                                                                                                   . La représentation de région calculée par le module d'intégration stochastique multi-vues est décodée par trois décodeurs
comme le montre la figure 3 (à droite), respectivement supervisés par trois tâches multimodales :

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTAi ) Étiquette de région d'image génération. Nous utilisons un décodeur de reconnaissance léger basé sur des requêtes pour la génération d'étiquettes de région. Le décodeur 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA est représenté sur la figure 3 (à droite). Le processus de marquage est complété par le calcul de la confiance d'une balise prédéfinie en utilisant la balise comme requête,
comme clé et valeur. Nous analysons les étiquettes des sous-titres de vérité terrain pour superviser le décodeur de reconnaissance. ii) Apprentissage contrastif région-texte. Semblable au décodeur de balises de région, le décodeur
est défini comme un décodeur de reconnaissance basé sur des requêtes. Le décodeur calcule les scores de similarité entre les sous-titres et les caractéristiques régionales, supervisés à l'aide de la perte SigLIP. iii) Modélisation du langage. Nous utilisons un grand modèle linguistique pré-entraîné pour convertir la représentation régionale
en une description linguistique.
超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA
Figure 4 : Performances du modèle DynRefer à double vue (n = 2) sur des tâches multimodales au niveau régional. Sous différents coefficients d'interpolation t, 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA. La première vue est corrigée (超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA), la vue deux est sélectionnée ou corrigée au hasard.

4. Pendant le processus d'inférence, le modèle DynRefer formé effectue des tâches multimodales sur des images à résolution dynamique. En ajustant les coefficients d'interpolation 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA des n vues échantillonnées, nous pouvons obtenir une représentation régionale avec des caractéristiques de résolution dynamique. Pour évaluer les propriétés à différentes résolutions dynamiques, nous avons formé un modèle DynRefer à double vue (n = 2) et l'avons évalué sur quatre tâches multimodales. Comme le montre la courbe de la figure 4, la détection d'attributs donne de meilleurs résultats pour les vues sans informations contextuelles (超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA). Cela peut s'expliquer par le fait que de telles tâches nécessitent souvent des informations régionales détaillées. Pour les tâches de sous-titrage au niveau régional et de sous-titrage dense, une vue riche en contexte (超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA) est requise pour bien comprendre la région de référence. Il est important de noter que les vues avec trop de contexte (超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA) dégradent les performances de toutes les tâches car elles introduisent trop d'informations non pertinentes pour la région. Lorsque le type de tâche est connu, nous pouvons échantillonner les vues appropriées en fonction des caractéristiques de la tâche. Lorsque le type de tâche est inconnu, nous construisons d'abord un ensemble de vues candidates sous différents coefficients d'interpolation t, 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA. À partir de l’ensemble candidat, n vues sont échantillonnées via un algorithme de recherche glouton. La fonction objectif de la recherche est définie comme :

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA représente le coefficient d'interpolation de la i-ème vue, 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA représente la i-ème vue, pHASH (・) représente la fonction de hachage perceptuelle de l'image et 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA représente le XOR opération. Afin de comparer les informations des vues dans une perspective globale, nous utilisons la fonction "pHASH (・)" pour convertir les vues du domaine spatial vers le domaine fréquentiel, puis les encoder en codes de hachage. Pour cet élément 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA, nous réduisons le poids des vues riches en contexte pour éviter d'introduire trop d'informations redondantes.

Expérience

Sous-titres au niveau régional

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA

Dans la tâche de génération de sous-titres régionaux, DynRefer utilise un modèle plus petit (4,2B contre 7B) sur les ensembles de données RefCOCOg et VG dans les deux. Indicateurs METEOR et CIDEr, il surpasse largement de nombreuses méthodes du CVPR 2024, telles que RegionGPT, GlaMM, Alpha-CLIP et Osprey, etc., démontrant l'énorme avantage en termes de performances de DynRefer.

Sous-titrage dense

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA

Dans la tâche de génération de sous-titres denses, dans l'ensemble de données VG1.2, DynRefer a amélioré 7,1 % de mAP par rapport à la méthode SOTA précédente GRiT.

Détection d'attributs de vocabulaire ouvert

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA

Dans la tâche de détection d'attributs régionaux, DynRefer a également atteint les performances SOTA.

Reconnaissance de région de vocabulaire ouvert

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA

Dans la tâche de reconnaissance de région, DynRefer améliore 15 % de mAP et 8,8 % de précision par rapport à RegionGPT de CVPR 24, et est 15,7 % de plus que mAP de ICLR 24.

Expérience d'ablation

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA

  • Ligne 1-6 : Une vue multiple dynamique aléatoire est meilleure qu'une vue fixe.
  • Ligne 6-10 : La sélection des vues en maximisant les informations est préférable à la sélection aléatoire des vues.
  • Ligne 10-13 : Des formations multitâches permettent d'apprendre de meilleures représentations régionales.

Visualisation

Les images suivantes montrent les résultats d'inférence de DynRefer peut utiliser un modèle pour générer simultanément des sous-titres, des balises, des attributs et des catégories régionaux.

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

<🎜>: Bubble Gum Simulator Infinity - Comment obtenir et utiliser les clés royales
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
<🎜>: Grow A Garden - Guide de mutation complet
3 Il y a quelques semaines By DDD
Nordhold: Système de fusion, expliqué
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Whispers of the Witch Tree - Comment déverrouiller le grappin
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Tutoriel Java
1671
14
Tutoriel PHP
1276
29
Tutoriel C#
1256
24
Le robot DeepMind joue au tennis de table, et son coup droit et son revers glissent dans les airs, battant complètement les débutants humains Le robot DeepMind joue au tennis de table, et son coup droit et son revers glissent dans les airs, battant complètement les débutants humains Aug 09, 2024 pm 04:01 PM

Mais peut-être qu’il ne pourra pas vaincre le vieil homme dans le parc ? Les Jeux Olympiques de Paris battent leur plein et le tennis de table suscite beaucoup d'intérêt. Dans le même temps, les robots ont également réalisé de nouvelles avancées dans le domaine du tennis de table. DeepMind vient tout juste de proposer le premier agent robot apprenant capable d'atteindre le niveau des joueurs amateurs humains de tennis de table de compétition. Adresse papier : https://arxiv.org/pdf/2408.03906 Quelle est la capacité du robot DeepMind à jouer au tennis de table ? Probablement à égalité avec les joueurs amateurs humains : tant en coup droit qu'en revers : l'adversaire utilise une variété de styles de jeu, et le robot peut également résister : recevoir des services avec des tours différents : Cependant, l'intensité du jeu ne semble pas aussi intense que le vieil homme dans le parc. Pour les robots, le tennis de table

La première griffe mécanique ! Yuanluobao est apparu à la World Robot Conference 2024 et a lancé le premier robot d'échecs pouvant entrer dans la maison La première griffe mécanique ! Yuanluobao est apparu à la World Robot Conference 2024 et a lancé le premier robot d'échecs pouvant entrer dans la maison Aug 21, 2024 pm 07:33 PM

Le 21 août, la Conférence mondiale sur les robots 2024 s'est tenue en grande pompe à Pékin. La marque de robots domestiques de SenseTime, "Yuanluobot SenseRobot", a dévoilé toute sa famille de produits et a récemment lancé le robot de jeu d'échecs Yuanluobot AI - Chess Professional Edition (ci-après dénommé "Yuanluobot SenseRobot"), devenant ainsi le premier robot d'échecs au monde pour le maison. En tant que troisième produit robot jouant aux échecs de Yuanluobo, le nouveau robot Guoxiang a subi un grand nombre de mises à niveau techniques spéciales et d'innovations en matière d'IA et de machines d'ingénierie. Pour la première fois, il a réalisé la capacité de ramasser des pièces d'échecs en trois dimensions. grâce à des griffes mécaniques sur un robot domestique et effectuer des fonctions homme-machine telles que jouer aux échecs, tout le monde joue aux échecs, réviser la notation, etc.

Claude aussi est devenu paresseux ! Internaute : apprenez à vous accorder des vacances Claude aussi est devenu paresseux ! Internaute : apprenez à vous accorder des vacances Sep 02, 2024 pm 01:56 PM

La rentrée scolaire est sur le point de commencer, et ce ne sont pas seulement les étudiants qui sont sur le point de commencer le nouveau semestre qui doivent prendre soin d’eux-mêmes, mais aussi les grands modèles d’IA. Il y a quelque temps, Reddit était rempli d'internautes se plaignant de la paresse de Claude. « Son niveau a beaucoup baissé, il fait souvent des pauses et même la sortie devient très courte. Au cours de la première semaine de sortie, il pouvait traduire un document complet de 4 pages à la fois, mais maintenant il ne peut même plus produire une demi-page. !" https://www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/ dans un post intitulé "Totalement déçu par Claude", plein de

Lors de la World Robot Conference, ce robot domestique porteur de « l'espoir des futurs soins aux personnes âgées » a été entouré Lors de la World Robot Conference, ce robot domestique porteur de « l'espoir des futurs soins aux personnes âgées » a été entouré Aug 22, 2024 pm 10:35 PM

Lors de la World Robot Conference qui se tient à Pékin, l'exposition de robots humanoïdes est devenue le centre absolu de la scène. Sur le stand Stardust Intelligent, l'assistant robot IA S1 a réalisé trois performances majeures de dulcimer, d'arts martiaux et de calligraphie. un espace d'exposition, capable à la fois d'arts littéraires et martiaux, a attiré un grand nombre de publics professionnels et de médias. Le jeu élégant sur les cordes élastiques permet au S1 de démontrer un fonctionnement fin et un contrôle absolu avec vitesse, force et précision. CCTV News a réalisé un reportage spécial sur l'apprentissage par imitation et le contrôle intelligent derrière "Calligraphy". Le fondateur de la société, Lai Jie, a expliqué que derrière les mouvements soyeux, le côté matériel recherche le meilleur contrôle de la force et les indicateurs corporels les plus humains (vitesse, charge). etc.), mais du côté de l'IA, les données réelles de mouvement des personnes sont collectées, permettant au robot de devenir plus fort lorsqu'il rencontre une situation forte et d'apprendre à évoluer rapidement. Et agile

Annonce des prix ACL 2024 : l'un des meilleurs articles sur le déchiffrement Oracle par HuaTech, GloVe Time Test Award Annonce des prix ACL 2024 : l'un des meilleurs articles sur le déchiffrement Oracle par HuaTech, GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

Les contributeurs ont beaucoup gagné de cette conférence ACL. L'ACL2024, d'une durée de six jours, se tient à Bangkok, en Thaïlande. ACL est la plus grande conférence internationale dans le domaine de la linguistique informatique et du traitement du langage naturel. Elle est organisée par l'Association internationale pour la linguistique informatique et a lieu chaque année. L'ACL s'est toujours classée première en termes d'influence académique dans le domaine de la PNL, et c'est également une conférence recommandée par le CCF-A. La conférence ACL de cette année est la 62e et a reçu plus de 400 travaux de pointe dans le domaine de la PNL. Hier après-midi, la conférence a annoncé le meilleur article et d'autres récompenses. Cette fois, il y a 7 Best Paper Awards (deux inédits), 1 Best Theme Paper Award et 35 Outstanding Paper Awards. La conférence a également décerné 3 Resource Paper Awards (ResourceAward) et Social Impact Award (

L'équipe de Li Feifei a proposé ReKep pour donner aux robots une intelligence spatiale et intégrer GPT-4o L'équipe de Li Feifei a proposé ReKep pour donner aux robots une intelligence spatiale et intégrer GPT-4o Sep 03, 2024 pm 05:18 PM

Intégration profonde de la vision et de l'apprentissage des robots. Lorsque deux mains de robot travaillent ensemble en douceur pour plier des vêtements, verser du thé et emballer des chaussures, associées au robot humanoïde 1X NEO qui a fait la une des journaux récemment, vous pouvez avoir le sentiment : nous semblons entrer dans l'ère des robots. En fait, ces mouvements soyeux sont le produit d’une technologie robotique avancée + d’une conception de cadre exquise + de grands modèles multimodaux. Nous savons que les robots utiles nécessitent souvent des interactions complexes et exquises avec l’environnement, et que l’environnement peut être représenté comme des contraintes dans les domaines spatial et temporel. Par exemple, si vous souhaitez qu'un robot verse du thé, le robot doit d'abord saisir la poignée de la théière et la maintenir verticalement sans renverser le thé, puis la déplacer doucement jusqu'à ce que l'embouchure de la théière soit alignée avec l'embouchure de la tasse. , puis inclinez la théière selon un certain angle. ce

Conférence sur l'intelligence artificielle distribuée Appel à communications DAI 2024 : Agent Day, Richard Sutton, le père de l'apprentissage par renforcement, sera présent ! Yan Shuicheng, Sergey Levine et les scientifiques de DeepMind prononceront des discours d'ouverture Conférence sur l'intelligence artificielle distribuée Appel à communications DAI 2024 : Agent Day, Richard Sutton, le père de l'apprentissage par renforcement, sera présent ! Yan Shuicheng, Sergey Levine et les scientifiques de DeepMind prononceront des discours d'ouverture Aug 22, 2024 pm 08:02 PM

Introduction à la conférence Avec le développement rapide de la science et de la technologie, l'intelligence artificielle est devenue une force importante dans la promotion du progrès social. À notre époque, nous avons la chance d’être témoins et de participer à l’innovation et à l’application de l’intelligence artificielle distribuée (DAI). L’intelligence artificielle distribuée est une branche importante du domaine de l’intelligence artificielle, qui a attiré de plus en plus d’attention ces dernières années. Les agents basés sur de grands modèles de langage (LLM) ont soudainement émergé. En combinant les puissantes capacités de compréhension du langage et de génération des grands modèles, ils ont montré un grand potentiel en matière d'interaction en langage naturel, de raisonnement par connaissances, de planification de tâches, etc. AIAgent reprend le grand modèle de langage et est devenu un sujet brûlant dans le cercle actuel de l'IA. Au

Hongmeng Smart Travel S9 et conférence de lancement de nouveaux produits avec scénario complet, un certain nombre de nouveaux produits à succès ont été lancés ensemble Hongmeng Smart Travel S9 et conférence de lancement de nouveaux produits avec scénario complet, un certain nombre de nouveaux produits à succès ont été lancés ensemble Aug 08, 2024 am 07:02 AM

Cet après-midi, Hongmeng Zhixing a officiellement accueilli de nouvelles marques et de nouvelles voitures. Le 6 août, Huawei a organisé la conférence de lancement de nouveaux produits Hongmeng Smart Xingxing S9 et Huawei, réunissant la berline phare intelligente panoramique Xiangjie S9, le nouveau M7Pro et Huawei novaFlip, MatePad Pro 12,2 pouces, le nouveau MatePad Air, Huawei Bisheng With de nombreux nouveaux produits intelligents tous scénarios, notamment la série d'imprimantes laser X1, FreeBuds6i, WATCHFIT3 et l'écran intelligent S5Pro, des voyages intelligents, du bureau intelligent aux vêtements intelligents, Huawei continue de construire un écosystème intelligent complet pour offrir aux consommateurs une expérience intelligente du Internet de tout. Hongmeng Zhixing : Autonomisation approfondie pour promouvoir la modernisation de l'industrie automobile intelligente Huawei s'associe à ses partenaires de l'industrie automobile chinoise pour fournir

See all articles