Maison Périphériques technologiques IA CMU s'associe à Adobe : le modèle GAN a inauguré l'ère de la pré-formation, ne nécessitant que 1 % des échantillons de formation

CMU s'associe à Adobe : le modèle GAN a inauguré l'ère de la pré-formation, ne nécessitant que 1 % des échantillons de formation

May 11, 2023 am 09:28 AM
模型 gan 训练

Après être entrés dans l'ère de la pré-formation, les performances des modèles de reconnaissance visuelle se sont développées rapidement, mais les modèles de génération d'images, tels que les réseaux contradictoires génératifs (GAN), semblent avoir pris du retard.

Habituellement, la formation GAN est effectuée à partir de zéro, de manière non supervisée, ce qui prend du temps et demande beaucoup de travail. Les « connaissances » acquises grâce au big data lors d'une pré-formation à grande échelle ne sont pas utilisées. ?

Et la génération d'images elle-même doit être capable de capturer et de simuler les données statistiques complexes dans des phénomènes visuels du monde réel, sinon les images générées ne seront pas conformes aux lois du monde physique et seront directement identifiées comme « fausses ». en un coup d'œil.

CMU sassocie à Adobe : le modèle GAN a inauguré lère de la pré-formation, ne nécessitant que 1 % des échantillons de formation

Le modèle pré-entraîné fournit des connaissances et le modèle GAN fournit des capacités de génération La combinaison des deux est une belle chose !

La question est de savoir quels modèles pré-entraînés et comment les combiner peuvent améliorer la capacité de génération du modèle GAN ?

Récemment, des chercheurs de la CMU et d'Adobe ont publié un article dans CVPR 2022, combinant la formation de modèles pré-entraînés et de modèles GAN par « sélection ».

CMU sassocie à Adobe : le modèle GAN a inauguré lère de la pré-formation, ne nécessitant que 1 % des échantillons de formation

Lien papier : https://arxiv.org/abs/2112.09130

Lien du projet : https://github.com/nupurkmr9/vision-aided-gan

Lien vidéo : https://www. youtube.com/watch?v=oHdyJNdQ9E4

Le processus de formation du modèle GAN se compose d'un discriminateur et d'un générateur. Le discriminateur est utilisé pour apprendre les données statistiques pertinentes qui distinguent les échantillons réels et les échantillons générés, tandis que l'objectif du générateur. est de laisser L'image générée est la plus identique possible à la distribution réelle.

Idéalement, le discriminateur devrait être capable de mesurer l'écart de répartition entre l'image générée et l'image réelle.

Mais lorsque la quantité de données est très limitée, l'utilisation directe d'un modèle pré-entraîné à grande échelle comme discriminateur peut facilement conduire à un « écrasement cruel » du générateur puis à un « surajustement ».

Grâce à des expériences sur l'ensemble de données FFHQ 1k, même si la dernière méthode d'amélioration des données différenciables est utilisée, le discriminateur sera toujours surajusté. Les performances de l'ensemble d'entraînement sont très bonnes, mais les performances de l'ensemble de validation sont très mauvaises.

CMU sassocie à Adobe : le modèle GAN a inauguré lère de la pré-formation, ne nécessitant que 1 % des échantillons de formation

De plus, le discriminateur peut se concentrer sur des déguisements impossibles à distinguer pour les humains mais évidents pour les machines.

Afin d'équilibrer les capacités du discriminateur et du générateur, les chercheurs ont proposé d'assembler les représentations d'un ensemble de différents modèles pré-entraînés en tant que discriminateur.

CMU sassocie à Adobe : le modèle GAN a inauguré lère de la pré-formation, ne nécessitant que 1 % des échantillons de formation

Cette méthode présente deux avantages :

1. La formation d'un classificateur superficiel sur des fonctionnalités pré-entraînées est une méthode courante pour adapter les réseaux profonds à des ensembles de données à petite échelle, tout en réduisant le surajustement.

C'est-à-dire que tant que les paramètres du modèle pré-entraîné sont fixes et qu'un réseau de classification léger est ajouté à la couche supérieure, un processus de formation stable peut être fourni.

Par exemple, à partir de la courbe Ours dans l'expérience ci-dessus, vous pouvez voir que la précision de l'ensemble de validation est bien améliorée par rapport à StyleGAN2-ADA.

2. Certaines études récentes ont également prouvé que les réseaux profonds peuvent capturer des concepts visuels significatifs, depuis les repères visuels de bas niveau (bords et textures) jusqu'aux concepts de haut niveau (objets et parties d'objets).

Un discriminateur construit sur ces caractéristiques pourrait être plus conforme à la perception humaine.

Et la combinaison de plusieurs modèles pré-entraînés peut permettre au générateur de correspondre à la distribution réelle dans différents espaces de fonctionnalités complémentaires.

Afin de sélectionner le meilleur réseau pré-entraîné, les chercheurs ont d'abord collecté plusieurs modèles sota pour former une « banque de modèles », dont VGG-16 pour la classification, Swin-T pour la détection et la segmentation, etc.

CMU sassocie à Adobe : le modèle GAN a inauguré lère de la pré-formation, ne nécessitant que 1 % des échantillons de formation

Ensuite, sur la base de la segmentation linéaire des images réelles et fausses dans l'espace des fonctionnalités, une stratégie de recherche automatique de modèle est proposée, et des techniques de lissage des étiquettes et d'amélioration différentiable sont utilisées pour stabiliser davantage l'entraînement du modèle et réduire le surajustement.

Plus précisément, l'union d'échantillons de formation réels et d'images générées est divisée en un ensemble de formation et un ensemble de validation.

Pour chaque modèle pré-entraîné, entraînez un discriminateur linéaire logique pour classer si l'échantillon provient d'un échantillon réel ou généré, et utilisez la « perte d'entropie croisée binaire négative » sur la division de vérification pour mesurer l'écart de distribution et renvoyer le plus petit. modèle d'erreur.

Une erreur de validation plus faible est associée à une précision de détection linéaire plus élevée, indiquant que ces fonctionnalités sont utiles pour distinguer les échantillons réels des échantillons générés, et que l'utilisation de ces fonctionnalités peut fournir un retour d'information plus utile au générateur.

Chercheurs Nous avons vérifié empiriquement la formation GAN à l'aide de 1000 échantillons de formation provenant des ensembles de données FFHQ et LSUN CAT.

CMU sassocie à Adobe : le modèle GAN a inauguré lère de la pré-formation, ne nécessitant que 1 % des échantillons de formation

CMU sassocie à Adobe : le modèle GAN a inauguré lère de la pré-formation, ne nécessitant que 1 % des échantillons de formationLes résultats montrent que les GAN formés avec des modèles pré-entraînés ont une précision de détection linéaire plus élevée et, de manière générale, peuvent obtenir un meilleur indicateur FID .

Afin d'incorporer les commentaires de plusieurs modèles prêts à l'emploi, l'article explore également deux stratégies de sélection et d'intégration de modèles

1) Stratégie de sélection de modèle K-fixe, sélectionnée au début de la formation des K meilleurs modèles disponibles dans le commerce et entraînement jusqu'à convergence ;

2) Stratégie de sélection de modèle K-progressive, sélectionner et ajouter de manière itérative le modèle le plus performant et inutilisé après un nombre fixe d'itérations.

Les résultats expérimentaux montrent que par rapport à la stratégie K-fixe, l'approche progressive a une complexité de calcul inférieure et est également utile pour sélectionner des modèles pré-entraînés pour capturer les différences dans la distribution des données. Par exemple, les deux premiers modèles sélectionnés par la stratégie progressive sont généralement une paire de modèles auto-supervisés et supervisés.

Les expérimentations présentées dans l'article sont principalement progressives.

L'algorithme d'entraînement final entraîne d'abord un GAN avec une perte adverse standard.

CMU sassocie à Adobe : le modèle GAN a inauguré lère de la pré-formation, ne nécessitant que 1 % des échantillons de formation

CMU sassocie à Adobe : le modèle GAN a inauguré lère de la pré-formation, ne nécessitant que 1 % des échantillons de formationÉtant donné un générateur de base, vous pouvez utiliser le sondage linéaire pour rechercher le meilleur modèle pré-entraîné et introduire une perte pendant l'objectif d'entraînement fonction.

Dans la stratégie K-progressive, après un entraînement pour un nombre fixe d'itérations proportionnel au nombre d'échantillons d'entraînement réels disponibles, un nouveau discriminateur visuellement auxiliaire est ajouté à l'étape précédente avec le meilleur instantané de l’ensemble d’entraînement FID.

Pendant le processus de formation, l'augmentation des données est effectuée par retournement horizontal, et des techniques d'augmentation différentiable et de lissage d'étiquettes unilatérales sont utilisées comme termes de régularisation.

On peut également observer que l'utilisation uniquement de modèles disponibles dans le commerce comme discriminateurs conduit à une divergence, tandis que la combinaison de discriminateurs originaux et de modèles pré-entraînés peut améliorer cette situation.

L'expérience finale montre les résultats lorsque les échantillons d'entraînement des ensembles de données FFHQ, LSUN CAT et LSUN CHURCH varient de 1 000 à 10 000.

CMU sassocie à Adobe : le modèle GAN a inauguré lère de la pré-formation, ne nécessitant que 1 % des échantillons de formation

CMU sassocie à Adobe : le modèle GAN a inauguré lère de la pré-formation, ne nécessitant que 1 % des échantillons de formation Dans tous les contextes, le FID peut réaliser des améliorations significatives, prouvant l'efficacité de cette méthode dans des scénarios de données limitées.

Afin d'analyser qualitativement la différence entre cette méthode et StyleGAN2-ADA, en fonction de la qualité des échantillons générés par les deux méthodes, la nouvelle méthode proposée dans l'article peut améliorer la qualité des pires échantillons , notamment pour FFHQ et LSUN CAT

CMU sassocie à Adobe : le modèle GAN a inauguré lère de la pré-formation, ne nécessitant que 1 % des échantillons de formation

CMU sassocie à Adobe : le modèle GAN a inauguré lère de la pré-formation, ne nécessitant que 1 % des échantillons de formationQuand on augmente progressivement le discriminateur suivant, on peut voir la précision de la détection linéaire sur les caractéristiques du modèle pré-entraîné Le sexe diminue progressivement, ce qui signifie que le générateur devient plus fort.

CMU sassocie à Adobe : le modèle GAN a inauguré lère de la pré-formation, ne nécessitant que 1 % des échantillons de formation

CMU sassocie à Adobe : le modèle GAN a inauguré lère de la pré-formation, ne nécessitant que 1 % des échantillons de formationEn général, avec seulement 10 000 échantillons d'entraînement, le FID de cette méthode sur LSUN CAT est le même que celui sur LSUN CAT. les performances de StyleGAN2 formé sur 1,6 million d’images sont similaires.

CMU sassocie à Adobe : le modèle GAN a inauguré lère de la pré-formation, ne nécessitant que 1 % des échantillons de formation

CMU sassocie à Adobe : le modèle GAN a inauguré lère de la pré-formation, ne nécessitant que 1 % des échantillons de formation Sur l'ensemble des données complètes, cette méthode améliore de 1,5 à 2 sur les catégories LSUN chat, église et cheval fois le FID. .

CMU sassocie à Adobe : le modèle GAN a inauguré lère de la pré-formation, ne nécessitant que 1 % des échantillons de formationCMU sassocie à Adobe : le modèle GAN a inauguré lère de la pré-formation, ne nécessitant que 1 % des échantillons de formation

L'auteur Richard Zhang a obtenu son doctorat de l'Université de Californie à Berkeley, ainsi que ses diplômes de premier cycle et de maîtrise de l'Université Cornell. Les principaux intérêts de recherche comprennent la vision par ordinateur, l'apprentissage automatique, l'apprentissage profond, le graphisme et le traitement d'images, travaillant souvent avec des chercheurs universitaires dans le cadre de stages ou d'universités.

CMU sassocie à Adobe : le modèle GAN a inauguré lère de la pré-formation, ne nécessitant que 1 % des échantillons de formation

CMU sassocie à Adobe : le modèle GAN a inauguré lère de la pré-formation, ne nécessitant que 1 % des échantillons de formationL'auteur Jun-Yan Zhu est professeur adjoint à l'école de robotique de l'école d'informatique de l'université Carnegie Mellon. Il travaille également au département d'informatique et au département d'apprentissage automatique. les domaines comprennent la vision par ordinateur, l'infographie, l'apprentissage automatique et la photographie informatique.

Avant de rejoindre la CMU, il était chercheur scientifique chez Adobe Research. Il est diplômé de l'Université Tsinghua avec un baccalauréat et un doctorat de l'Université de Californie à Berkeley, puis a travaillé comme chercheur postdoctoral au MIT CSAIL. ..

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Comment réparer l'audio si vous n'entendez personne
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Comment déverrouiller tout dans Myrise
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Le modèle MoE open source le plus puissant au monde est ici, avec des capacités chinoises comparables à celles du GPT-4, et le prix ne représente que près d'un pour cent de celui du GPT-4-Turbo. Le modèle MoE open source le plus puissant au monde est ici, avec des capacités chinoises comparables à celles du GPT-4, et le prix ne représente que près d'un pour cent de celui du GPT-4-Turbo. May 07, 2024 pm 04:13 PM

Imaginez un modèle d'intelligence artificielle qui non seulement a la capacité de surpasser l'informatique traditionnelle, mais qui permet également d'obtenir des performances plus efficaces à moindre coût. Ce n'est pas de la science-fiction, DeepSeek-V2[1], le modèle MoE open source le plus puissant au monde est ici. DeepSeek-V2 est un puissant mélange de modèle de langage d'experts (MoE) présentant les caractéristiques d'une formation économique et d'une inférence efficace. Il est constitué de 236B paramètres, dont 21B servent à activer chaque marqueur. Par rapport à DeepSeek67B, DeepSeek-V2 offre des performances plus élevées, tout en économisant 42,5 % des coûts de formation, en réduisant le cache KV de 93,3 % et en augmentant le débit de génération maximal à 5,76 fois. DeepSeek est une entreprise explorant l'intelligence artificielle générale

L'IA bouleverse la recherche mathématique ! Le lauréat de la médaille Fields et mathématicien sino-américain a dirigé 11 articles les mieux classés | Aimé par Terence Tao L'IA bouleverse la recherche mathématique ! Le lauréat de la médaille Fields et mathématicien sino-américain a dirigé 11 articles les mieux classés | Aimé par Terence Tao Apr 09, 2024 am 11:52 AM

L’IA change effectivement les mathématiques. Récemment, Tao Zhexuan, qui a prêté une attention particulière à cette question, a transmis le dernier numéro du « Bulletin de l'American Mathematical Society » (Bulletin de l'American Mathematical Society). En se concentrant sur le thème « Les machines changeront-elles les mathématiques ? », de nombreux mathématiciens ont exprimé leurs opinions. L'ensemble du processus a été plein d'étincelles, intense et passionnant. L'auteur dispose d'une équipe solide, comprenant Akshay Venkatesh, lauréat de la médaille Fields, le mathématicien chinois Zheng Lejun, l'informaticien de l'Université de New York Ernest Davis et de nombreux autres universitaires bien connus du secteur. Le monde de l’IA a radicalement changé. Vous savez, bon nombre de ces articles ont été soumis il y a un an.

Bonjour, Atlas électrique ! Le robot Boston Dynamics revient à la vie, des mouvements étranges à 180 degrés effraient Musk Bonjour, Atlas électrique ! Le robot Boston Dynamics revient à la vie, des mouvements étranges à 180 degrés effraient Musk Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas entre officiellement dans l’ère des robots électriques ! Hier, l'Atlas hydraulique s'est retiré "en larmes" de la scène de l'histoire. Aujourd'hui, Boston Dynamics a annoncé que l'Atlas électrique était au travail. Il semble que dans le domaine des robots humanoïdes commerciaux, Boston Dynamics soit déterminé à concurrencer Tesla. Après la sortie de la nouvelle vidéo, elle a déjà été visionnée par plus d’un million de personnes en seulement dix heures. Les personnes âgées partent et de nouveaux rôles apparaissent. C'est une nécessité historique. Il ne fait aucun doute que cette année est l’année explosive des robots humanoïdes. Les internautes ont commenté : Les progrès des robots ont fait ressembler la cérémonie d'ouverture de cette année à des êtres humains, et le degré de liberté est bien plus grand que celui des humains. Mais n'est-ce vraiment pas un film d'horreur ? Au début de la vidéo, Atlas est allongé calmement sur le sol, apparemment sur le dos. Ce qui suit est à couper le souffle

KAN, qui remplace MLP, a été étendu à la convolution par des projets open source KAN, qui remplace MLP, a été étendu à la convolution par des projets open source Jun 01, 2024 pm 10:03 PM

Plus tôt ce mois-ci, des chercheurs du MIT et d'autres institutions ont proposé une alternative très prometteuse au MLP – KAN. KAN surpasse MLP en termes de précision et d’interprétabilité. Et il peut surpasser le MLP fonctionnant avec un plus grand nombre de paramètres avec un très petit nombre de paramètres. Par exemple, les auteurs ont déclaré avoir utilisé KAN pour reproduire les résultats de DeepMind avec un réseau plus petit et un degré d'automatisation plus élevé. Plus précisément, le MLP de DeepMind compte environ 300 000 paramètres, tandis que le KAN n'en compte qu'environ 200. KAN a une base mathématique solide comme MLP est basé sur le théorème d'approximation universelle, tandis que KAN est basé sur le théorème de représentation de Kolmogorov-Arnold. Comme le montre la figure ci-dessous, KAN a

La version Kuaishou de Sora 'Ke Ling' est ouverte aux tests : génère plus de 120 s de vidéo, comprend mieux la physique et peut modéliser avec précision des mouvements complexes La version Kuaishou de Sora 'Ke Ling' est ouverte aux tests : génère plus de 120 s de vidéo, comprend mieux la physique et peut modéliser avec précision des mouvements complexes Jun 11, 2024 am 09:51 AM

Quoi? Zootopie est-elle concrétisée par l’IA domestique ? Avec la vidéo est exposé un nouveau modèle de génération vidéo domestique à grande échelle appelé « Keling ». Sora utilise une voie technique similaire et combine un certain nombre d'innovations technologiques auto-développées pour produire des vidéos qui comportent non seulement des mouvements larges et raisonnables, mais qui simulent également les caractéristiques du monde physique et possèdent de fortes capacités de combinaison conceptuelle et d'imagination. Selon les données, Keling prend en charge la génération de vidéos ultra-longues allant jusqu'à 2 minutes à 30 ips, avec des résolutions allant jusqu'à 1080p, et prend en charge plusieurs formats d'image. Un autre point important est que Keling n'est pas une démo ou une démonstration de résultats vidéo publiée par le laboratoire, mais une application au niveau produit lancée par Kuaishou, un acteur leader dans le domaine de la vidéo courte. De plus, l'objectif principal est d'être pragmatique, de ne pas faire de chèques en blanc et de se mettre en ligne dès sa sortie. Le grand modèle de Ke Ling est déjà sorti à Kuaiying.

La vitalité de la super intelligence s'éveille ! Mais avec l'arrivée de l'IA qui se met à jour automatiquement, les mères n'ont plus à se soucier des goulots d'étranglement des données. La vitalité de la super intelligence s'éveille ! Mais avec l'arrivée de l'IA qui se met à jour automatiquement, les mères n'ont plus à se soucier des goulots d'étranglement des données. Apr 29, 2024 pm 06:55 PM

Je pleure à mort. Le monde construit à la folie de grands modèles. Les données sur Internet ne suffisent pas du tout. Le modèle de formation ressemble à « The Hunger Games », et les chercheurs en IA du monde entier se demandent comment nourrir ces personnes avides de données. Ce problème est particulièrement important dans les tâches multimodales. À une époque où rien ne pouvait être fait, une équipe de start-up du département de l'Université Renmin de Chine a utilisé son propre nouveau modèle pour devenir la première en Chine à faire de « l'auto-alimentation des données générées par le modèle » une réalité. De plus, il s’agit d’une approche à deux volets, du côté compréhension et du côté génération, les deux côtés peuvent générer de nouvelles données multimodales de haute qualité et fournir un retour de données au modèle lui-même. Qu'est-ce qu'un modèle ? Awaker 1.0, un grand modèle multimodal qui vient d'apparaître sur le Forum Zhongguancun. Qui est l'équipe ? Moteur Sophon. Fondé par Gao Yizhao, doctorant à la Hillhouse School of Artificial Intelligence de l’Université Renmin.

L'US Air Force présente son premier avion de combat IA de grande envergure ! Le ministre a personnellement effectué l'essai routier sans intervenir pendant tout le processus, et 100 000 lignes de code ont été testées 21 fois. L'US Air Force présente son premier avion de combat IA de grande envergure ! Le ministre a personnellement effectué l'essai routier sans intervenir pendant tout le processus, et 100 000 lignes de code ont été testées 21 fois. May 07, 2024 pm 05:00 PM

Récemment, le milieu militaire a été submergé par la nouvelle : les avions de combat militaires américains peuvent désormais mener des combats aériens entièrement automatiques grâce à l'IA. Oui, tout récemment, l’avion de combat IA de l’armée américaine a été rendu public pour la première fois, dévoilant ainsi son mystère. Le nom complet de ce chasseur est Variable Stability Simulator Test Aircraft (VISTA). Il a été personnellement piloté par le secrétaire de l'US Air Force pour simuler une bataille aérienne en tête-à-tête. Le 2 mai, le secrétaire de l'US Air Force, Frank Kendall, a décollé à bord d'un X-62AVISTA à la base aérienne d'Edwards. Notez que pendant le vol d'une heure, toutes les actions de vol ont été effectuées de manière autonome par l'IA ! Kendall a déclaré : "Au cours des dernières décennies, nous avons réfléchi au potentiel illimité du combat air-air autonome, mais cela a toujours semblé hors de portée." Mais maintenant,

FisheyeDetNet : le premier algorithme de détection de cible basé sur une caméra fisheye FisheyeDetNet : le premier algorithme de détection de cible basé sur une caméra fisheye Apr 26, 2024 am 11:37 AM

La détection de cibles est un problème relativement mature dans les systèmes de conduite autonome, parmi lesquels la détection des piétons est l'un des premiers algorithmes à être déployés. Des recherches très complètes ont été menées dans la plupart des articles. Cependant, la perception de la distance à l’aide de caméras fisheye pour une vue panoramique est relativement moins étudiée. En raison de la distorsion radiale importante, la représentation standard du cadre de délimitation est difficile à mettre en œuvre dans les caméras fisheye. Pour alléger la description ci-dessus, nous explorons les conceptions étendues de boîtes englobantes, d'ellipses et de polygones généraux dans des représentations polaires/angulaires et définissons une métrique de segmentation d'instance mIOU pour analyser ces représentations. Le modèle fisheyeDetNet proposé avec une forme polygonale surpasse les autres modèles et atteint simultanément 49,5 % de mAP sur l'ensemble de données de la caméra fisheye Valeo pour la conduite autonome.

See all articles