Maison Périphériques technologiques IA Le modèle multimodal de l'Assemblée populaire nationale évolue vers l'AGI : il réalise pour la première fois des mises à jour indépendantes et la génération de photos et de vidéos dépasse Sora

Le modèle multimodal de l'Assemblée populaire nationale évolue vers l'AGI : il réalise pour la première fois des mises à jour indépendantes et la génération de photos et de vidéos dépasse Sora

Apr 30, 2024 am 08:13 AM
产业 模拟器 moteur sophon

Lors du forum parallèle général Intelligence artificielle du Forum de Zhongguancun qui s'est tenu le 27 avril, Sophon Engine, une startup affiliée à l'Assemblée populaire nationale, a lancé en grande pompe un nouveau grand modèle multimodal Awaker 1.0, franchissant une étape cruciale vers l'AGI. .

Par rapport au modèle de séquence ChatImg de la génération précédente de Sophon Engine, Awaker 1.0 adopte une nouvelle architecture MOE et dispose de capacités de mise à jour indépendantes. Il s'agit du premier grand modèle multimodal de l'industrie à atteindre une « véritable » indépendance. mise à jour.

En termes de génération visuelle, Awaker 1.0 utilise une base de génération vidéo entièrement auto-développée VDT, qui obtient de meilleurs résultats que Sora en génération photo-vidéo, brisant la difficulté du « dernier kilomètre » de l'atterrissage de grands modèles.

Le modèle multimodal de lAssemblée populaire nationale évolue vers lAGI : il réalise pour la première fois des mises à jour indépendantes et la génération de photos et de vidéos dépasse Sora

Awaker 1.0 est un grand modèle multimodal qui intègre parfaitement la compréhension visuelle et la génération visuelle. Du côté de la compréhension, Awaker 1.0 interagit avec le monde numérique et le monde réel et renvoie les données de comportement de la scène au modèle pendant l'exécution des tâches pour réaliser une mise à jour et une formation continues, du côté de la génération, Awaker 1.0 peut générer des multi-de haute qualité ; contenu modal, simulez le monde réel et fournissez plus de données de formation pour le modèle côté compréhension.

Ce qui est particulièrement important, c'est qu'en raison de ses « réelles » capacités de mise à jour autonomes, Awaker 1.0 est adapté à un plus large éventail de scénarios industriels et peut résoudre des tâches pratiques plus complexes, telles que l'agent IA, l'intelligence incorporée, la gestion complète, et inspection de sécurité, etc.

Le modèle multimodal de lAssemblée populaire nationale évolue vers lAGI : il réalise pour la première fois des mises à jour indépendantes et la génération de photos et de vidéos dépasse Sora

Modèle de base MOE d'Awaker

Du côté de la compréhension, le modèle de base d'Awaker 1.0 résout principalement le problème des conflits graves dans la pré-formation multimodale multi-tâches. Bénéficiant de l'architecture MOE multitâche soigneusement conçue, le modèle de base d'Awaker 1.0 peut non seulement hériter des capacités de base du grand modèle multimodal de génération précédente du moteur Sophon, ChatImg, mais également apprendre les capacités uniques requises pour chaque tâche multimodale. . Par rapport au grand modèle multimodal ChatImg de la génération précédente, les capacités du modèle de base d'Awaker 1.0 ont été considérablement améliorées dans plusieurs tâches.

Compte tenu du problème de fuite de données d'évaluation dans les listes d'évaluation multimodales traditionnelles, nous avons adopté des normes strictes pour créer notre propre ensemble d'évaluation, dans lequel la plupart des images de test proviennent d'albums personnels de téléphones portables. Dans cet ensemble d'évaluation multimodale, nous effectuons une évaluation manuelle équitable sur Awaker 1.0 et les trois grands modèles multimodaux les plus avancés au pays et à l'étranger. Les résultats détaillés de l'évaluation sont présentés dans le tableau ci-dessous. Notez que GPT-4V et Intern-VL ne prennent pas directement en charge les tâches de détection. Leurs résultats de détection sont obtenus en exigeant que le modèle utilise un langage pour décrire l'orientation de l'objet.

Le modèle multimodal de lAssemblée populaire nationale évolue vers lAGI : il réalise pour la première fois des mises à jour indépendantes et la génération de photos et de vidéos dépasse Sora

Nous avons constaté que le modèle de base d'Awaker 1.0 dépassait GPT-4V, Qwen-VL-Max et Intern-VL en termes de réponses visuelles aux questions et de tâches d'application métier, tout en atteignant également le meilleur résultat suivant. Dans l'ensemble, le score moyen d'Awaker 1.0 dépasse les trois modèles les plus avancés au pays et à l'étranger, vérifiant l'efficacité de l'architecture multitâche du MOE. Vous trouverez ci-dessous plusieurs exemples spécifiques d’analyse comparative.

Le modèle multimodal de lAssemblée populaire nationale évolue vers lAGI : il réalise pour la première fois des mises à jour indépendantes et la génération de photos et de vidéos dépasse Sora

Comme le montrent ces exemples comparatifs, Awaker 1.0 peut donner des réponses correctes aux questions de comptage et d'OCR, tandis que les trois autres modèles répondent tous de manière incorrecte (ou partiellement incorrecte). Dans la tâche de description détaillée, Qwen-VL-Max est plus sujet aux hallucinations, et Intern-VL peut décrire avec précision le contenu de l'image mais n'est pas suffisamment précis et spécifique dans certains détails. GPT-4V et Awaker 1.0 peuvent non seulement décrire le contenu de l'image en détail, mais également identifier avec précision les détails de l'image, comme le Coca-Cola montré sur l'image.

Awaker + Intelligence incarnée : Vers l'AGI

La combinaison des grands modèles multimodaux et de l'intelligence incarnée est très naturelle en raison des capacités de compréhension visuelle des grands modèles multimodaux Peut être combinée avec des caméras qui sont une intelligence naturelle et incarnée. Dans le domaine de l'intelligence artificielle, « grand modèle multimodal + intelligence incorporée » est même considéré comme une voie réalisable pour parvenir à l'intelligence artificielle générale (AGI).

D'une part, les gens s'attendent à ce que l'intelligence incarnée soit adaptable, c'est-à-dire que l'agent peut s'adapter à des environnements d'application changeants grâce à un apprentissage continu. Il peut non seulement faire mieux sur des tâches multimodales connues, mais aussi s'adapter rapidement. aux tâches multimodales inconnues.

D'un autre côté, les gens s'attendent également à ce que l'intelligence incarnée soit véritablement créative, en espérant qu'elle puisse découvrir de nouvelles stratégies et solutions et explorer les limites des capacités de l'intelligence artificielle grâce à l'exploration autonome de l'environnement. En utilisant de grands modèles multimodaux comme « cerveaux » de l’intelligence incarnée, nous avons le potentiel d’augmenter considérablement l’adaptabilité et la créativité de l’intelligence incarnée, pour finalement nous rapprocher du seuil de l’AGI (ou même atteindre l’AGI).

Cependant, il existe deux problèmes évidents avec les grands modèles multimodaux existants : premièrement, le cycle de mise à jour itérative du modèle est long, nécessitant beaucoup d'investissement humain et financier ; à partir de l'existant Pour certaines données, le modèle ne peut pas acquérir en permanence une grande quantité de nouvelles connaissances. Bien que l'émergence continue de nouvelles connaissances puisse également être injectée via RAG et un contexte long, le grand modèle multimodal lui-même n'apprend pas ces nouvelles connaissances, et ces deux méthodes de remédiation entraîneront également des problèmes supplémentaires.

En bref, les grands modèles multimodaux actuels ne sont pas très adaptables aux scénarios d'application réels, encore moins créatifs, ce qui entraîne diverses difficultés lors de leur mise en œuvre dans l'industrie.

Le modèle multimodal de lAssemblée populaire nationale évolue vers lAGI : il réalise pour la première fois des mises à jour indépendantes et la génération de photos et de vidéos dépasse SoraL'Awaker 1.0 publié cette fois par Sophon Engine est le premier grand modèle multimodal au monde doté d'un mécanisme de mise à jour autonome, qui peut être utilisé comme le « cerveau » de l'intelligence incarnée. Le mécanisme de mise à jour autonome d'Awaker 1.0 comprend trois technologies clés : la génération active de données, la réflexion et l'évaluation du modèle et la mise à jour continue du modèle.


Différent de tous les autres grands modèles multimodaux, Awaker 1.0 est "live" et ses paramètres peuvent être continuellement mis à jour en temps réel.

Comme le montre le diagramme du cadre ci-dessus, Awaker 1.0 peut être combiné avec divers appareils intelligents, observer le monde à travers des appareils intelligents, générer des intentions d'action et construire automatiquement des instructions pour contrôler les appareils intelligents afin d'effectuer diverses actions. Les appareils intelligents généreront automatiquement divers retours après avoir effectué diverses actions. Awaker 1.0 peut obtenir des données d'entraînement efficaces à partir de ces actions et retours pour une mise à jour automatique continue et renforcer continuellement les différentes capacités du modèle.

En prenant l'injection de nouvelles connaissances comme exemple, Awaker 1.0 peut apprendre en continu les dernières informations sur Internet et répondre à diverses questions complexes basées sur les informations d'actualité nouvellement apprises. Différent des méthodes traditionnelles de RAG et de contexte long, Awaker 1.0 peut véritablement apprendre de nouvelles connaissances et « mémoriser » les paramètres du modèle.

Comme vous pouvez le voir dans l'exemple ci-dessus, en trois jours consécutifs de mise à jour automatique, Awaker 1.0 peut apprendre chaque jour les informations d'actualité du jour et prononcer avec précision les informations correspondantes lorsqu'il répond aux questions. Dans le même temps, Awaker 1.0 n'oubliera pas les connaissances acquises pendant le processus d'apprentissage continu. Par exemple, les connaissances de Wisdom S7 sont toujours mémorisées ou comprises par Awaker 1.0 après 2 jours.

Awaker 1.0 peut également être combiné avec divers appareils intelligents pour réaliser une collaboration à la pointe du cloud. Awaker 1.0 est déployé dans le cloud en tant que « cerveau » pour contrôler divers appareils intelligents de pointe afin d'effectuer diverses tâches. Les commentaires obtenus lorsque l'appareil intelligent Edge effectue diverses tâches seront transmis en continu à Awaker 1.0, lui permettant d'obtenir en permanence des données d'entraînement et de se mettre à jour en permanence. Le modèle multimodal de lAssemblée populaire nationale évolue vers lAGI : il réalise pour la première fois des mises à jour indépendantes et la génération de photos et de vidéos dépasse Sora
La voie technique de collaboration cloud-edge mentionnée ci-dessus a été appliquée dans des scénarios d'application tels que l'inspection des réseaux intelligents et les villes intelligentes. Elle a obtenu de bien meilleurs résultats de reconnaissance que les petits modèles traditionnels et a été hautement reconnue par les clients de l'industrie.

Le modèle multimodal de lAssemblée populaire nationale évolue vers lAGI : il réalise pour la première fois des mises à jour indépendantes et la génération de photos et de vidéos dépasse Sora

Le modèle multimodal de lAssemblée populaire nationale évolue vers lAGI : il réalise pour la première fois des mises à jour indépendantes et la génération de photos et de vidéos dépasse Sora

Simulateur du monde réel : VDT

Le côté génération d'Awaker 1.0 est un VDT ​​de base de génération vidéo de type Sora développé indépendamment par Sophon Engine, qui peut être utilisé comme un véritable- simulateur du monde. Les résultats de la recherche de VDT ont été publiés sur le site Web arXiv en mai 2023, 10 mois avant la sortie de Sora par OpenAI. L'article académique de VDT a été accepté par l'ICLR 2024, la plus grande conférence internationale sur l'intelligence artificielle.

Le modèle multimodal de lAssemblée populaire nationale évolue vers lAGI : il réalise pour la première fois des mises à jour indépendantes et la génération de photos et de vidéos dépasse Sora

L'innovation de la base de génération vidéo VDT comprend principalement les aspects suivants :

  • L'application de la technologie Transformer à la génération vidéo basée sur la diffusion montre le grand potentiel de Transformer dans le domaine de la génération vidéo. L'avantage du VDT réside dans son excellente capacité de capture en fonction du temps, permettant la génération d'images vidéo temporellement cohérentes, notamment la simulation de la dynamique physique d'objets tridimensionnels au fil du temps.
  • Proposer un mécanisme de modélisation de masque spatio-temporel unifié pour permettre à VDT de gérer une variété de tâches de génération vidéo, réalisant ainsi la large application de cette technologie. Les méthodes flexibles de traitement de l'information conditionnelle de VDT, telles que le simple épissage de l'espace de jetons, unifient efficacement les informations de différentes longueurs et modalités. Dans le même temps, en se combinant avec le mécanisme de modélisation de masque spatio-temporel, VDT est devenu un outil de diffusion vidéo universel, qui peut être appliqué à la génération inconditionnelle, à la prédiction d'images vidéo ultérieures, à l'interpolation d'images, aux vidéos génératrices d'images et aux images vidéo sans modifier le structure du modèle. Achèvement et autres tâches de génération vidéo.

Nous nous sommes concentrés sur l'exploration de la simulation de lois physiques simples par VDT et avons formé VDT sur l'ensemble de données Physion. Dans l’exemple ci-dessous, nous constatons que VDT simule avec succès des processus physiques tels que la balle se déplaçant le long d’une trajectoire parabolique et la balle roulant sur un avion et entrant en collision avec d’autres objets. Dans le même temps, le deuxième exemple de la ligne 2 montre également que le VDT capture la vitesse et l'élan de la balle, car la balle n'a finalement pas renversé le pilier en raison d'une force d'impact insuffisante. Cela prouve que l'architecture Transformer peut apprendre certaines lois physiques.

Le modèle multimodal de lAssemblée populaire nationale évolue vers lAGI : il réalise pour la première fois des mises à jour indépendantes et la génération de photos et de vidéos dépasse Sora

Nous avons également mené une exploration approfondie de la tâche de génération de photos et de vidéos. Cette tâche impose des exigences très élevées en matière de qualité de génération vidéo, car nous sommes naturellement plus sensibles aux changements dynamiques des visages et des personnages. Compte tenu de la particularité de cette tâche, nous devons combiner VDT (ou Sora) et génération contrôlable pour relever les défis de la génération photo vidéo. À l'heure actuelle, le moteur Sophon a dépassé la plupart des technologies clés de génération de photo-vidéo et a atteint une meilleure qualité de génération de photo-vidéo que Sora. Le moteur Sophon continuera d’optimiser l’algorithme de génération contrôlable de portraits et explore également activement sa commercialisation. À l'heure actuelle, un scénario d'atterrissage commercial confirmé a été trouvé, et il devrait surmonter la difficulté du « dernier kilomètre » de l'atterrissage de grands modèles dans un avenir proche. Le modèle multimodal de lAssemblée populaire nationale évolue vers lAGI : il réalise pour la première fois des mises à jour indépendantes et la génération de photos et de vidéos dépasse Sora
À l'avenir, un VDT ​​plus polyvalent deviendra un outil puissant pour résoudre le problème des sources de données multimodales de grands modèles. Grâce à la génération vidéo, VDT sera capable de simuler le monde réel, d'améliorer encore l'efficacité de la production de données visuelles et de fournir une assistance pour la mise à jour indépendante du grand modèle multimodal Awaker.

Conclusion

Awaker 1.0 est une étape clé pour l'équipe du moteur Sophon pour avancer vers l'objectif ultime de "réaliser AGI". L'équipe estime que les capacités d'apprentissage autonome de l'IA, telles que l'auto-exploration et l'auto-réflexion, sont des critères d'évaluation importants du niveau d'intelligence et sont tout aussi importantes que l'augmentation continue de la taille des paramètres (loi d'échelle). Awaker 1.0 a mis en œuvre des cadres techniques clés tels que « la génération active de données, la réflexion et l'évaluation du modèle et la mise à jour continue du modèle », réalisant des avancées tant du côté de la compréhension que du côté de la génération. Il devrait accélérer le développement du grand multimodal. modéliser l'industrie et permettre à terme aux humains de réaliser l'AGI.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Comment réparer l'audio si vous n'entendez personne
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Comment déverrouiller tout dans Myrise
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Le robot DeepMind joue au tennis de table, et son coup droit et son revers glissent dans les airs, battant complètement les débutants humains Le robot DeepMind joue au tennis de table, et son coup droit et son revers glissent dans les airs, battant complètement les débutants humains Aug 09, 2024 pm 04:01 PM

Mais peut-être qu’il ne pourra pas vaincre le vieil homme dans le parc ? Les Jeux Olympiques de Paris battent leur plein et le tennis de table suscite beaucoup d'intérêt. Dans le même temps, les robots ont également réalisé de nouvelles avancées dans le domaine du tennis de table. DeepMind vient tout juste de proposer le premier agent robot apprenant capable d'atteindre le niveau des joueurs amateurs humains de tennis de table de compétition. Adresse papier : https://arxiv.org/pdf/2408.03906 Quelle est la capacité du robot DeepMind à jouer au tennis de table ? Probablement à égalité avec les joueurs amateurs humains : tant en coup droit qu'en revers : l'adversaire utilise une variété de styles de jeu, et le robot peut également résister : recevoir des services avec des tours différents : Cependant, l'intensité du jeu ne semble pas aussi intense que le vieil homme dans le parc. Pour les robots, le tennis de table

La première griffe mécanique ! Yuanluobao est apparu à la World Robot Conference 2024 et a lancé le premier robot d'échecs pouvant entrer dans la maison La première griffe mécanique ! Yuanluobao est apparu à la World Robot Conference 2024 et a lancé le premier robot d'échecs pouvant entrer dans la maison Aug 21, 2024 pm 07:33 PM

Le 21 août, la Conférence mondiale sur les robots 2024 s'est tenue en grande pompe à Pékin. La marque de robots domestiques de SenseTime, "Yuanluobot SenseRobot", a dévoilé toute sa famille de produits et a récemment lancé le robot de jeu d'échecs Yuanluobot AI - Chess Professional Edition (ci-après dénommé "Yuanluobot SenseRobot"), devenant ainsi le premier robot d'échecs au monde pour le maison. En tant que troisième produit robot jouant aux échecs de Yuanluobo, le nouveau robot Guoxiang a subi un grand nombre de mises à niveau techniques spéciales et d'innovations en matière d'IA et de machines d'ingénierie. Pour la première fois, il a réalisé la capacité de ramasser des pièces d'échecs en trois dimensions. grâce à des griffes mécaniques sur un robot domestique et effectuer des fonctions homme-machine telles que jouer aux échecs, tout le monde joue aux échecs, réviser la notation, etc.

Claude aussi est devenu paresseux ! Internaute : apprenez à vous accorder des vacances Claude aussi est devenu paresseux ! Internaute : apprenez à vous accorder des vacances Sep 02, 2024 pm 01:56 PM

La rentrée scolaire est sur le point de commencer, et ce ne sont pas seulement les étudiants qui sont sur le point de commencer le nouveau semestre qui doivent prendre soin d’eux-mêmes, mais aussi les grands modèles d’IA. Il y a quelque temps, Reddit était rempli d'internautes se plaignant de la paresse de Claude. « Son niveau a beaucoup baissé, il fait souvent des pauses et même la sortie devient très courte. Au cours de la première semaine de sortie, il pouvait traduire un document complet de 4 pages à la fois, mais maintenant il ne peut même plus produire une demi-page. !" https://www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/ dans un post intitulé "Totalement déçu par Claude", plein de

Lors de la World Robot Conference, ce robot domestique porteur de « l'espoir des futurs soins aux personnes âgées » a été entouré Lors de la World Robot Conference, ce robot domestique porteur de « l'espoir des futurs soins aux personnes âgées » a été entouré Aug 22, 2024 pm 10:35 PM

Lors de la World Robot Conference qui se tient à Pékin, l'exposition de robots humanoïdes est devenue le centre absolu de la scène. Sur le stand Stardust Intelligent, l'assistant robot IA S1 a réalisé trois performances majeures de dulcimer, d'arts martiaux et de calligraphie. un espace d'exposition, capable à la fois d'arts littéraires et martiaux, a attiré un grand nombre de publics professionnels et de médias. Le jeu élégant sur les cordes élastiques permet au S1 de démontrer un fonctionnement fin et un contrôle absolu avec vitesse, force et précision. CCTV News a réalisé un reportage spécial sur l'apprentissage par imitation et le contrôle intelligent derrière "Calligraphy". Le fondateur de la société, Lai Jie, a expliqué que derrière les mouvements soyeux, le côté matériel recherche le meilleur contrôle de la force et les indicateurs corporels les plus humains (vitesse, charge). etc.), mais du côté de l'IA, les données réelles de mouvement des personnes sont collectées, permettant au robot de devenir plus fort lorsqu'il rencontre une situation forte et d'apprendre à évoluer rapidement. Et agile

Annonce des prix ACL 2024 : l'un des meilleurs articles sur le déchiffrement Oracle par HuaTech, GloVe Time Test Award Annonce des prix ACL 2024 : l'un des meilleurs articles sur le déchiffrement Oracle par HuaTech, GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

Les contributeurs ont beaucoup gagné de cette conférence ACL. L'ACL2024, d'une durée de six jours, se tient à Bangkok, en Thaïlande. ACL est la plus grande conférence internationale dans le domaine de la linguistique informatique et du traitement du langage naturel. Elle est organisée par l'Association internationale pour la linguistique informatique et a lieu chaque année. L'ACL s'est toujours classée première en termes d'influence académique dans le domaine de la PNL, et c'est également une conférence recommandée par le CCF-A. La conférence ACL de cette année est la 62e et a reçu plus de 400 travaux de pointe dans le domaine de la PNL. Hier après-midi, la conférence a annoncé le meilleur article et d'autres récompenses. Cette fois, il y a 7 Best Paper Awards (deux inédits), 1 Best Theme Paper Award et 35 Outstanding Paper Awards. La conférence a également décerné 3 Resource Paper Awards (ResourceAward) et Social Impact Award (

Hongmeng Smart Travel S9 et conférence de lancement de nouveaux produits avec scénario complet, un certain nombre de nouveaux produits à succès ont été lancés ensemble Hongmeng Smart Travel S9 et conférence de lancement de nouveaux produits avec scénario complet, un certain nombre de nouveaux produits à succès ont été lancés ensemble Aug 08, 2024 am 07:02 AM

Cet après-midi, Hongmeng Zhixing a officiellement accueilli de nouvelles marques et de nouvelles voitures. Le 6 août, Huawei a organisé la conférence de lancement de nouveaux produits Hongmeng Smart Xingxing S9 et Huawei, réunissant la berline phare intelligente panoramique Xiangjie S9, le nouveau M7Pro et Huawei novaFlip, MatePad Pro 12,2 pouces, le nouveau MatePad Air, Huawei Bisheng With de nombreux nouveaux produits intelligents tous scénarios, notamment la série d'imprimantes laser X1, FreeBuds6i, WATCHFIT3 et l'écran intelligent S5Pro, des voyages intelligents, du bureau intelligent aux vêtements intelligents, Huawei continue de construire un écosystème intelligent complet pour offrir aux consommateurs une expérience intelligente du Internet de tout. Hongmeng Zhixing : Autonomisation approfondie pour promouvoir la modernisation de l'industrie automobile intelligente Huawei s'associe à ses partenaires de l'industrie automobile chinoise pour fournir

L'équipe de Li Feifei a proposé ReKep pour donner aux robots une intelligence spatiale et intégrer GPT-4o L'équipe de Li Feifei a proposé ReKep pour donner aux robots une intelligence spatiale et intégrer GPT-4o Sep 03, 2024 pm 05:18 PM

Intégration profonde de la vision et de l'apprentissage des robots. Lorsque deux mains de robot travaillent ensemble en douceur pour plier des vêtements, verser du thé et emballer des chaussures, associées au robot humanoïde 1X NEO qui a fait la une des journaux récemment, vous pouvez avoir le sentiment : nous semblons entrer dans l'ère des robots. En fait, ces mouvements soyeux sont le produit d’une technologie robotique avancée + d’une conception de cadre exquise + de grands modèles multimodaux. Nous savons que les robots utiles nécessitent souvent des interactions complexes et exquises avec l’environnement, et que l’environnement peut être représenté comme des contraintes dans les domaines spatial et temporel. Par exemple, si vous souhaitez qu'un robot verse du thé, le robot doit d'abord saisir la poignée de la théière et la maintenir verticalement sans renverser le thé, puis la déplacer doucement jusqu'à ce que l'embouchure de la théière soit alignée avec l'embouchure de la tasse. , puis inclinez la théière selon un certain angle. ce

Conférence sur l'intelligence artificielle distribuée Appel à communications DAI 2024 : Agent Day, Richard Sutton, le père de l'apprentissage par renforcement, sera présent ! Yan Shuicheng, Sergey Levine et les scientifiques de DeepMind prononceront des discours d'ouverture Conférence sur l'intelligence artificielle distribuée Appel à communications DAI 2024 : Agent Day, Richard Sutton, le père de l'apprentissage par renforcement, sera présent ! Yan Shuicheng, Sergey Levine et les scientifiques de DeepMind prononceront des discours d'ouverture Aug 22, 2024 pm 08:02 PM

Introduction à la conférence Avec le développement rapide de la science et de la technologie, l'intelligence artificielle est devenue une force importante dans la promotion du progrès social. À notre époque, nous avons la chance d’être témoins et de participer à l’innovation et à l’application de l’intelligence artificielle distribuée (DAI). L’intelligence artificielle distribuée est une branche importante du domaine de l’intelligence artificielle, qui a attiré de plus en plus d’attention ces dernières années. Les agents basés sur de grands modèles de langage (LLM) ont soudainement émergé. En combinant les puissantes capacités de compréhension du langage et de génération des grands modèles, ils ont montré un grand potentiel en matière d'interaction en langage naturel, de raisonnement par connaissances, de planification de tâches, etc. AIAgent reprend le grand modèle de langage et est devenu un sujet brûlant dans le cercle actuel de l'IA. Au

See all articles