


Li Feifei révèle l'orientation entrepreneuriale de « l'intelligence spatiale » : la visualisation se transforme en aperçu, la vue devient compréhension et la compréhension mène à l'action
Stanford Li Feifei a révélé le nouveau concept "intelligence spatiale" pour la première fois après avoir démarré sa propre entreprise.
Ce n'est pas seulement son orientation entrepreneuriale, mais aussi « l'Étoile du Nord » qui la guide. Elle la considère comme « la pièce clé du puzzle pour résoudre le problème de l'intelligence artificielle ».
La visualisation devient une vision ; voir devient une compréhension ; la compréhension mène à l'action.
Basé sur la conférence TED de 15 minutes de Li Feifei, entièrement ouverte au public, depuis l'origine de l'évolution de la vie il y a des centaines de millions d'années, jusqu'à la façon dont les humains ne sont pas satisfaits de ce la nature leur a donné et développer l'intelligence artificielle, pour savoir comment construire l'espace dans la prochaine étape intelligente.
Il y a neuf ans, sur la même scène, Li Feifei présentait au monde le nouveau ImageNet - l'un des points de départ de cette explosion d'apprentissage en profondeur.
Elle a elle-même encouragé les internautes : si regardez les deux vidéos, vous pouvez avoir une bonne compréhension de la vision par ordinateur, de l'intelligence spatiale et de l'IA au cours des 10 dernières années.
Maintenant, sans changer son sens originel, nous allons trier le contenu du discours de Li Feifei.
L'intelligence spatiale, permettant à l'IA de comprendre le monde réel
L'évolution de la vision biologique
Laissez-moi vous montrer quelque chose, pour être précis, je vais vous montrer "rien".
C'est le monde d'il y a 540 millions d'années. Des ténèbres pures et sans fin. Il ne fait pas nuit à cause du manque de lumière. Il fait sombre à cause du manque de vision.
Bien que la lumière du soleil puisse pénétrer jusqu'à 1 000 mètres sous la surface de l'océan et que la lumière des sources hydrothermales puisse également pénétrer jusqu'au fond de la mer, qui regorge de vie, il n'y a pas un seul œil dans ces eaux anciennes.
Pas de rétine, pas de cornée, pas de cristallin. Donc toute cette lumière, toute cette vie, reste invisible.
Il fut un temps où la notion de « voir » n'existait pas. On ne s'en était jamais rendu compte jusqu'à ce qu'il le soit.
Pour des raisons que nous commençons seulement à comprendre, les premiers organismes capables de détecter la lumière sont apparus : les trilobites. Ce sont les premières créatures capables de ressentir la réalité que nous tenons pour acquise. Ils furent les premiers êtres à découvrir qu'il existait autre chose qu'eux-mêmes.
Pour la première fois, le monde est rempli de plusieurs « moi ».
On pense que la capacité de voir a déclenché l’explosion cambrienne, une période au cours de laquelle les espèces animales sont entrées en grand nombre dans les archives fossiles. Ce qui commence comme une expérience passive, le simple fait de laisser entrer la lumière, devient bientôt plus actif et le système nerveux commence à évoluer.
La vision devient perspicacité. Voir devient compréhension. La compréhension mène à l’action.
Tout cela donne naissance à l’intelligence.
L'essor de la vision par ordinateur
Aujourd'hui, nous ne sommes plus satisfaits des capacités visuelles offertes par la nature. La curiosité nous pousse à créer des machines capables de voir au moins aussi bien que nous, sinon mieux.
Il y a neuf ans, sur cette scène, j'ai soumis un premier rapport d'étape sur la vision par ordinateur.
À cette époque, trois forces puissantes se sont réunies pour la première fois :
- Une classe d'algorithmes appelée réseaux de neurones
- Un matériel rapide et spécialisé appelé unité de traitement graphique, ou GPU
- Plus Big data , comme les 15 millions d'images que mon laboratoire a passé plusieurs années à organiser, appelé ImageNet.
Ensemble, ils ont inauguré l’ère moderne de l’intelligence artificielle.
Nous avons parcouru un long chemin depuis lors jusqu'à aujourd'hui.
Au début, le simple étiquetage des images constituait une avancée majeure, mais la vitesse et la précision de l'algorithme se sont rapidement améliorées.
Ces progrès sont mesurés dans le cadre du ImageNet Challenge annuel organisé par mon laboratoire. Dans ce graphique, vous pouvez voir l'amélioration des capacités du modèle chaque année, ainsi que certains des modèles marquants.
Nous sommes allés plus loin et avons créé des algorithmes capables de segmenter des objets visuels ou de prédire des relations dynamiques entre eux, travail réalisé par mes étudiants et collaborateurs.
Il y a plus.
Rappelez-vous le premier algorithme de vision par ordinateur que j'ai présenté dans mon dernier discours, l'IA peut décrire une photo en utilisant le langage naturel humain. C'est ce que j'ai fait avec mon brillant élève Andrej Karpathy.
A ce moment-là, j'ai dit avec audace : "Andrej, pouvons-nous faire en sorte que l'ordinateur fasse le contraire ?" Andrej a souri et a dit : "Haha, c'est impossible
Eh bien, comme tu l'as dit aujourd'hui, tu vois, c'est impossible." est devenu possible.
C’est grâce à une série de modèles de diffusion qui alimentent les algorithmes d’IA générative d’aujourd’hui, capables de transformer des mots-clés humains en photos et vidéos pour créer quelque chose d’entièrement nouveau.
Beaucoup d’entre vous ont récemment vu Sora d’OpenAI obtenir des résultats impressionnants. Cependant, il y a quelques mois, sans beaucoup de GPU, mes étudiants et collaborateurs ont développé un modèle de génération vidéo IA appelé Walt.
△Walt Publié en décembre 2023
Il y a place à amélioration ici, regardez les yeux de ce chat, il n'a jamais été mouillé sous les vagues, quel désastre~(cat-astrophe).
(Les mèmes homophoniques déduisent de l'argent !)
Intelligence spatiale : il ne suffit pas de voir
Le passé est un prologue, nous apprendrons de ces erreurs et créerons un avenir que nous imaginons. Dans cet avenir, nous voulons que l’IA fasse tout ce qu’elle peut pour faire des choses à notre place ou nous aider à faire des choses.
Je dis depuis des années que prendre des photos n'est pas la même chose que voir et comprendre. Aujourd’hui, je voudrais ajouter un point supplémentaire : il ne suffit pas de regarder.
Regardez, pour l'action et l'apprentissage.
Lorsque nous agissons dans l'espace et le temps 3D, nous apprenons, nous apprenons à mieux voir et à mieux faire les choses. La nature crée un cycle vertueux de vision et d’action grâce à « l’intelligence spatiale ».
Pour démontrer ce qu'est l'intelligence spatiale, jetez un œil à cette photo. Si vous ressentez le besoin de faire quelque chose, levez simplement la main.
En une fraction de seconde, votre cerveau observe la géométrie de cette tasse, sa position dans l'espace 3D, sa relation avec la table, le chat et tous les autres objets, et vous pouvez prédire ce qui va se passer ensuite.
L'envie d'agir est inhérente à toutes les créatures dotées d'une intelligence spatiale, qui relie la perception à l'action.
Si nous voulons que l’IA aille au-delà des capacités actuelles, nous voulons non seulement une IA capable de voir et de parler, nous voulons également une IA capable d’agir.
En fait, nous faisons des progrès passionnants.
La dernière étape importante en matière d'intelligence spatiale est apprendre aux ordinateurs à voir, apprendre, agir et apprendre à mieux voir et agir.
Et ce n’est pas facile.
La nature a passé des millions d'années à développer l'intelligence spatiale. Les yeux capturent la lumière et projettent des images 2D sur la rétine, et le cerveau convertit ces données en informations 3D.
Récemment, un groupe de chercheurs de Google a développé un algorithme pour convertir un ensemble de photos en un espace 3D.
Mes étudiants et collaborateurs sont allés plus loin et ont créé un algorithme qui transforme une seule image en une forme 3D.
Une équipe de chercheurs de l'Université du Michigan a trouvé un moyen de convertir des phrases en agencements de pièces en 3D.
Mon collègue de l'Université de Stanford et ses étudiants ont développé un algorithme capable de générer un espace infini de possibilités à partir d'une seule image que le spectateur peut explorer.
Ce sont des prototypes de possibilités futures. Grâce à cette possibilité, les humains peuvent transformer notre monde entier sous forme numérique et simuler sa richesse et sa subtilité.
Ce que la nature fait implicitement dans chacun de nos esprits, la technologie de l'intelligence spatiale promet de faire de même pour notre conscience collective.
entraîner des ordinateurs et des robots à agir dans un monde 3D.
Au lieu de collecter des images statiques cette fois, nous développons des environnements de simulation pilotés par des modèles spatiaux 3D afin que les ordinateurs puissent apprendre les possibilités infinies d'actions. Ce que vous venez de voir est un petit exemple d'enseignement à nos robots, un projet mené par mon laboratoire appelé Behaviour.des yeux supplémentaires.
Mais je préfère avoir une aide plus interactive pour nos patients, cliniciens et soignants qui ont désespérément besoin d’une paire de mains supplémentaire.
Imaginez un robot autonome transportant des fournitures médicales pendant que les soignants se concentrent sur le patient, ou utilisant la réalité augmentée pour guider les chirurgiens à travers des procédures plus sûres, plus rapides et moins invasives.
Imaginez encore une fois que des patients gravement paralysés puissent contrôler des robots avec leurs pensées. C’est vrai, utiliser les ondes cérébrales pour effectuer les tâches quotidiennes que vous et moi tenons pour acquises.
Il s'agit d'une étude pilote récente menée dans mon laboratoire. Dans cette vidéo, un bras robotique, contrôlé uniquement par des signaux électriques provenant du cerveau, prépare un repas japonais sukiyaki. où les signaux sont collectés de manière non invasive via un capuchon EEG.
Il y a cinq cents millions d'années, l'émergence de la vision bouleversa le monde des ténèbres et déclencha le processus évolutif le plus profond : le développement de l'intelligence dans le monde animal.
Les progrès de l’IA au cours de la dernière décennie sont tout aussi étonnants. Mais je crois que le plein potentiel de cette explosion cambrienne numérique ne sera pas pleinement exploité tant que nous n’aurons pas doté les ordinateurs et les robots d’une intelligence spatiale, tout comme la nature l’a fait pour nous tous.
C’est une période passionnante pour apprendre à nos compagnons numériques à raisonner et à interagir avec ce magnifique espace 3D que nous appelons chez nous, tout en créant davantage de nouveaux mondes que nous pouvons explorer.
Réaliser cet avenir ne sera pas facile, cela nécessite que nous chacun réfléchissions profondément et développions une technologie qui place toujours l’humain au centre.
Mais si nous le faisons correctement, les ordinateurs et les robots alimentés par l'intelligence spatiale deviendront non seulement des outils utiles, mais aussi des partenaires de confiance, nous rendant plus productifs, renforçant notre humanité et améliorant nos vies tout en respectant la dignité de l'individu. prospérité collective.
L’avenir qui me passionne le plus est celui dans lequel l’IA devient plus sensible, plus perspicace et plus consciente de l’espace, et nous rejoint dans notre quête de création d’un monde meilleur.
(Texte intégral terminé)
Replay vidéo : https://www.ted.com/talks/fei_fei_li_with_spatial_intelligence_ai_will_understand_the_real_world/transcript
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds











0. À quoi sert cet article ? Nous proposons DepthFM : un modèle d'estimation de profondeur monoculaire génératif de pointe, polyvalent et rapide. En plus des tâches traditionnelles d'estimation de la profondeur, DepthFM démontre également des capacités de pointe dans les tâches en aval telles que l'inpainting en profondeur. DepthFM est efficace et peut synthétiser des cartes de profondeur en quelques étapes d'inférence. Lisons ce travail ensemble ~ 1. Titre des informations sur l'article : DepthFM : FastMonocularDepthEstimationwithFlowMatching Auteur : MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

Imaginez un modèle d'intelligence artificielle qui non seulement a la capacité de surpasser l'informatique traditionnelle, mais qui permet également d'obtenir des performances plus efficaces à moindre coût. Ce n'est pas de la science-fiction, DeepSeek-V2[1], le modèle MoE open source le plus puissant au monde est ici. DeepSeek-V2 est un puissant mélange de modèle de langage d'experts (MoE) présentant les caractéristiques d'une formation économique et d'une inférence efficace. Il est constitué de 236B paramètres, dont 21B servent à activer chaque marqueur. Par rapport à DeepSeek67B, DeepSeek-V2 offre des performances plus élevées, tout en économisant 42,5 % des coûts de formation, en réduisant le cache KV de 93,3 % et en augmentant le débit de génération maximal à 5,76 fois. DeepSeek est une entreprise explorant l'intelligence artificielle générale

L’IA change effectivement les mathématiques. Récemment, Tao Zhexuan, qui a prêté une attention particulière à cette question, a transmis le dernier numéro du « Bulletin de l'American Mathematical Society » (Bulletin de l'American Mathematical Society). En se concentrant sur le thème « Les machines changeront-elles les mathématiques ? », de nombreux mathématiciens ont exprimé leurs opinions. L'ensemble du processus a été plein d'étincelles, intense et passionnant. L'auteur dispose d'une équipe solide, comprenant Akshay Venkatesh, lauréat de la médaille Fields, le mathématicien chinois Zheng Lejun, l'informaticien de l'Université de New York Ernest Davis et de nombreux autres universitaires bien connus du secteur. Le monde de l’IA a radicalement changé. Vous savez, bon nombre de ces articles ont été soumis il y a un an.

Boston Dynamics Atlas entre officiellement dans l’ère des robots électriques ! Hier, l'Atlas hydraulique s'est retiré "en larmes" de la scène de l'histoire. Aujourd'hui, Boston Dynamics a annoncé que l'Atlas électrique était au travail. Il semble que dans le domaine des robots humanoïdes commerciaux, Boston Dynamics soit déterminé à concurrencer Tesla. Après la sortie de la nouvelle vidéo, elle a déjà été visionnée par plus d’un million de personnes en seulement dix heures. Les personnes âgées partent et de nouveaux rôles apparaissent. C'est une nécessité historique. Il ne fait aucun doute que cette année est l’année explosive des robots humanoïdes. Les internautes ont commenté : Les progrès des robots ont fait ressembler la cérémonie d'ouverture de cette année à des êtres humains, et le degré de liberté est bien plus grand que celui des humains. Mais n'est-ce vraiment pas un film d'horreur ? Au début de la vidéo, Atlas est allongé calmement sur le sol, apparemment sur le dos. Ce qui suit est à couper le souffle

Plus tôt ce mois-ci, des chercheurs du MIT et d'autres institutions ont proposé une alternative très prometteuse au MLP – KAN. KAN surpasse MLP en termes de précision et d’interprétabilité. Et il peut surpasser le MLP fonctionnant avec un plus grand nombre de paramètres avec un très petit nombre de paramètres. Par exemple, les auteurs ont déclaré avoir utilisé KAN pour reproduire les résultats de DeepMind avec un réseau plus petit et un degré d'automatisation plus élevé. Plus précisément, le MLP de DeepMind compte environ 300 000 paramètres, tandis que le KAN n'en compte qu'environ 200. KAN a une base mathématique solide comme MLP est basé sur le théorème d'approximation universelle, tandis que KAN est basé sur le théorème de représentation de Kolmogorov-Arnold. Comme le montre la figure ci-dessous, KAN a

La dernière vidéo du robot Optimus de Tesla est sortie, et il peut déjà fonctionner en usine. À vitesse normale, il trie les batteries (les batteries 4680 de Tesla) comme ceci : Le responsable a également publié à quoi cela ressemble à une vitesse 20 fois supérieure - sur un petit "poste de travail", en sélectionnant et en sélectionnant et en sélectionnant : Cette fois, il est publié L'un des points forts de la vidéo est qu'Optimus réalise ce travail en usine, de manière totalement autonome, sans intervention humaine tout au long du processus. Et du point de vue d'Optimus, il peut également récupérer et placer la batterie tordue, en se concentrant sur la correction automatique des erreurs : concernant la main d'Optimus, le scientifique de NVIDIA Jim Fan a donné une évaluation élevée : la main d'Optimus est l'un des robots à cinq doigts du monde. le plus adroit. Ses mains ne sont pas seulement tactiles

Quoi? Zootopie est-elle concrétisée par l’IA domestique ? Avec la vidéo est exposé un nouveau modèle de génération vidéo domestique à grande échelle appelé « Keling ». Sora utilise une voie technique similaire et combine un certain nombre d'innovations technologiques auto-développées pour produire des vidéos qui comportent non seulement des mouvements larges et raisonnables, mais qui simulent également les caractéristiques du monde physique et possèdent de fortes capacités de combinaison conceptuelle et d'imagination. Selon les données, Keling prend en charge la génération de vidéos ultra-longues allant jusqu'à 2 minutes à 30 ips, avec des résolutions allant jusqu'à 1080p, et prend en charge plusieurs formats d'image. Un autre point important est que Keling n'est pas une démo ou une démonstration de résultats vidéo publiée par le laboratoire, mais une application au niveau produit lancée par Kuaishou, un acteur leader dans le domaine de la vidéo courte. De plus, l'objectif principal est d'être pragmatique, de ne pas faire de chèques en blanc et de se mettre en ligne dès sa sortie. Le grand modèle de Ke Ling est déjà sorti à Kuaiying.

Lien du projet écrit devant : https://nianticlabs.github.io/mickey/ Étant donné deux images, la pose de la caméra entre elles peut être estimée en établissant la correspondance entre les images. En règle générale, ces correspondances sont 2D à 2D et nos poses estimées sont à échelle indéterminée. Certaines applications, telles que la réalité augmentée instantanée, à tout moment et en tout lieu, nécessitent une estimation de pose des métriques d'échelle, elles s'appuient donc sur des estimateurs de profondeur externes pour récupérer l'échelle. Cet article propose MicKey, un processus de correspondance de points clés capable de prédire les correspondances métriques dans l'espace d'une caméra 3D. En apprenant la correspondance des coordonnées 3D entre les images, nous sommes en mesure de déduire des métriques relatives.
