localisation actuelle:Maison > Articles techniques > Périphériques technologiques > IA
- Direction:
- tous web3.0 développement back-end interface Web base de données Opération et maintenance outils de développement cadre php programmation quotidienne Applet WeChat Problème commun autre technologie Tutoriel CMS Java Tutoriel système tutoriels informatiques Tutoriel matériel Tutoriel mobile Tutoriel logiciel Tutoriel de jeu mobile
- Classer:
-
- Simple et universel : accélération de la formation 3 fois sans perte du réseau visuel de base, Tsinghua EfficientTrain++ sélectionné pour TPAMI 2024
- L'auteur de ce document de discussion, Wang Yulin, est un doctorant direct en 2019 au Département d'automatisation de l'Université Tsinghua. Il a étudié sous la direction de l'académicien Wu Cheng et du professeur agrégé Huang Gao. Ses principaux domaines de recherche sont l'apprentissage profond efficace, la vision par ordinateur, etc. . Il a publié des articles de discussion en tant que premier auteur dans des revues et des conférences telles que TPAMI, NeurIPS, ICLR, ICCV, CVPR, ECCV, etc. Il a reçu la bourse Baidu, la bourse Microsoft, le prix académique émergent CCF-CV, la bourse ByteDance et d'autres distinctions. . Page d'accueil personnelle : wyl.cool. Cet article présente principalement un article qui vient d'être accepté par IEEETransactionsonPatternAnalysisandMachineIntelligence (TPAMI) : Effici
- IA 935 2024-06-10 14:54:28
-
- Un cadre de reconstruction gaussienne efficace et généralisable qui peut raisonner rapidement avec seulement 3 vues et une optimisation complète en 45 secondes.
- La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com La reconstruction 3D et la nouvelle technologie de synthèse de vues sont largement utilisées dans les domaines de la réalité virtuelle et de la réalité augmentée. NeRF a obtenu un succès remarquable dans la synthèse de vues en codant implicitement des scènes sous forme de scènes de rayons. Cependant, étant donné que NeRF s'appuie sur des requêtes point par point chronophages et intensives
- IA 891 2024-06-10 14:24:57
-
- Nouveau progrès dans la série « Spatial Intelligence » de Li Feifei, la nouvelle suite « BVS » de l'équipe de Wu Jiajun évalue les modèles de vision par ordinateur
- Dans son récent discours TED 2024, Li Feifei a expliqué en détail le concept d'intelligence spatiale (Spatial Intelligence). Elle est ravie et extrêmement enthousiaste du développement rapide du domaine de la vision par ordinateur au cours des dernières années et crée à cet effet une start-up. Dans ce discours, elle a évoqué un résultat de recherche de l'équipe de Stanford, BEHAVIOR, qu'ils ont "créé". Un ensemble de données comportementales et de mouvement utilisé pour entraîner les ordinateurs et les robots à agir dans un monde tridimensionnel. BEHAVIOR est un énorme ensemble de données qui contient les comportements et les actions humaines dans divers scénarios. Le but de cet ensemble de données est de permettre aux ordinateurs et aux robots de mieux comprendre et imiter le comportement humain. En analysant le COMPORTEMENT
- IA 1146 2024-06-10 14:04:57
-
- Open source! V2Xverse : remise et publication de la première plateforme de simulation et du premier modèle de bout en bout pour V2X
- Données de conduite synchronisées de la collaboration véhicule-route Conduite autonome assistée du véhicule vers tout V2X-AD (conduite autonome assistée du véhicule vers tout) a un grand potentiel pour fournir des stratégies de conduite plus sûres. Les chercheurs ont mené de nombreuses recherches sur les aspects de communication et de communication du V2X-AD, mais l'effet de ces infrastructures et ressources de communication sur l'amélioration des performances de conduite n'a pas été entièrement exploré. Cela met en évidence la nécessité d’étudier la conduite autonome collaborative, c’est-à-dire comment concevoir des stratégies efficaces de partage d’informations pour la planification de la conduite afin d’améliorer les performances de conduite de chaque véhicule. Cela nécessite deux conditions de base clés : une plate-forme capable de fournir un environnement de données pour V2X-AD et un système de pilotage.
- IA 440 2024-06-10 12:42:28
-
- GPT-4 a réussi le test de Turing avec un taux de réussite de 54 % ! Nouveau travail de l'UCSD : les humains ne peuvent pas reconnaître GPT-4
- GPT-4 peut-il réussir le test de Turing ? Lorsqu'un modèle suffisamment puissant naît, les gens utilisent souvent le test de Turing pour mesurer l'intelligence de ce LLM. Récemment, des chercheurs du Département des sciences cognitives de l'UCSD ont découvert que dans le test de Turing, les gens ne peuvent pas du tout distinguer le GPT-4 des humains ! Adresse de l'article : https://arxiv.org/pdf/2405.08007 Dans le test de Turing, GPT-4 a été jugé humain dans 54 % des cas. Les résultats expérimentaux montrent que c'est la première fois qu'un système réussit empiriquement le test de Turing "interactif" à deux personnes. Les chercheurs Cameron R. Jones ont recruté 500 volontaires, répartis en 5 rôles : 4 évaluateurs, à savoir
- IA 1140 2024-06-10 12:32:27
-
- La version open source de GLM-4 est enfin là : surpassant Llama3, multi-modalité comparable à GPT4V, et la plateforme MaaS a également été considérablement améliorée.
- La dernière version du grand modèle coûte 6 centimes et 1 million de jetons. Ce matin, lors de la journée portes ouvertes de l'IA, la très regardée société de grands modèles Zhipu AI a annoncé une série de chiffres de mise en œuvre dans l'industrie : selon les dernières statistiques, la plate-forme ouverte de grands modèles Zhipu AI a actuellement reçu 300 000 utilisateurs enregistrés, avec un en moyenne quotidienne Le nombre d'appels a atteint 40 milliards de jetons, dont la consommation quotidienne d'API a augmenté de plus de 50 fois au cours des 6 derniers mois, et le modèle GLM-4 avec les performances les plus puissantes a augmenté de plus de 90 fois en les 4 derniers mois. Dans la récente application Qingtan, plus de 300 000 agents sont actifs dans le centre d'agents, y compris de nombreux excellents outils de productivité, tels que des cartes mentales, des assistants documentaires, des planificateurs, etc. Côté nouvelle technologie, la dernière version de GLM-4, GL
- IA 1139 2024-06-10 11:44:17
-
- Dites adieu à l'algorithme 3D Gaussian Splatting, le champ gaussien d'élagage spectral SUNDAE avec compensation neuronale est open source
- La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Les auteurs de cet article incluent Yang Runyi, étudiant en maîtrise à l'Imperial College de Londres, Zhu Zhenxin, étudiant en deuxième année de maîtrise à l'Université Beihang, Jiang Zhou, étudiant en deuxième année de maîtrise à l'Imperial College de Londres. étudiant de première année de maîtrise à l'Institut de technologie de Pékin et étudiants de quatrième année de premier cycle à l'Institut de technologie de Pékin Ye Baijun, Zhang Yifei, étudiant de troisième année de premier cycle à l'Académie chinoise des sciences, Intelligence artificielle de China Telecom
- IA 1092 2024-06-10 11:17:28
-
- Assistant de codage d'IA augmenté par le contexte utilisant Rag et Sem-Rag
- Améliorez la productivité, l’efficacité et la précision des développeurs en intégrant une génération et une mémoire sémantique améliorées par la récupération dans les assistants de codage IA. Traduit de EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, auteur JanakiramMSV. Bien que les assistants de programmation d'IA de base soient naturellement utiles, ils ne parviennent souvent pas à fournir les suggestions de code les plus pertinentes et les plus correctes, car ils s'appuient sur une compréhension générale du langage logiciel et des modèles d'écriture de logiciels les plus courants. Le code généré par ces assistants de codage est adapté à la résolution des problèmes qu’ils sont chargés de résoudre, mais n’est souvent pas conforme aux normes, conventions et styles de codage des équipes individuelles. Cela aboutit souvent à des suggestions qui doivent être modifiées ou affinées pour que le code soit accepté dans l'application.
- IA 1237 2024-06-10 11:08:19
-
- Le modèle de génération audio open source de 47 secondes de Stability AI peut générer des insectes, des oiseaux, de la musique rock et des battements de tambour.
- Il y a une autre bonne nouvelle dans le domaine de la génération audio : StabilityAI vient d'annoncer le lancement du modèle ouvert StableAudioOpen, capable de générer des données audio de haute qualité. Adresse du projet : https://huggingface.co/stabilityai/stable-audio-open-1.0 Contrairement au produit commercial StableAudio de StabilityAI, qui génère des pistes musicales plus longues et cohérentes d'une durée maximale de trois minutes, StableAudioOpen peut être créé via un simple texte Fournit la génération de pistes musicales de haute qualité. -données audio de qualité jusqu'à 47 secondes. Ce modèle a été créé pour la production musicale et la conception sonore. Il comprend des battements de tambour, des instruments de musique ri
- IA 1003 2024-06-10 09:37:36
-
- Guide étape par étape pour utiliser Groq Llama 3 70B localement
- Traducteur | Bugatti Review | Chonglou Cet article décrit comment utiliser le moteur d'inférence GroqLPU pour générer des réponses ultra-rapides dans JanAI et VSCode. Tout le monde travaille à la création de meilleurs grands modèles de langage (LLM), tels que Groq, qui se concentre sur le côté infrastructure de l'IA. Une réponse rapide de ces grands modèles est essentielle pour garantir que ces grands modèles réagissent plus rapidement. Ce didacticiel présentera le moteur d'analyse GroqLPU et comment y accéder localement sur votre ordinateur portable à l'aide de l'API et de JanAI. Cet article l'intégrera également dans VSCode pour nous aider à générer du code, à refactoriser le code, à saisir la documentation et à générer des unités de test. Cet article créera gratuitement notre propre assistant de programmation d’intelligence artificielle. Introduction au moteur d'inférence GroqLPU Groq
- IA 1048 2024-06-10 09:16:58
-
- L'application de grands modèles Tencent Yuanbao est en ligne ! Hunyuan est mis à niveau pour créer un assistant IA complet pouvant être transporté n'importe où
- Le 30 mai, Tencent a annoncé une mise à niveau complète de son modèle Hunyuan. L'application « Tencent Yuanbao » basée sur le modèle Hunyuan a été officiellement lancée et peut être téléchargée sur les magasins d'applications Apple et Android. Par rapport à la version de l'applet Hunyuan lors de la phase de test précédente, Tencent Yuanbao fournit des fonctionnalités de base telles que la recherche IA, le résumé IA et l'écriture IA pour les scénarios d'efficacité du travail ; pour les scénarios de la vie quotidienne, le gameplay de Yuanbao est également plus riche et fournit de multiples fonctionnalités d'application IA. , et de nouvelles méthodes de jeu telles que la création d'agents personnels sont ajoutées. « Tencent ne s'efforcera pas d'être le premier à créer un grand modèle. » Liu Yuhong, vice-président de Tencent Cloud et responsable du grand modèle Tencent Hunyuan, a déclaré : « Au cours de l'année écoulée, nous avons continué à promouvoir les capacités de Tencent. Grand modèle Tencent Hunyuan. Dans la technologie polonaise riche et massive dans des scénarios commerciaux tout en obtenant un aperçu des besoins réels des utilisateurs.
- IA 817 2024-06-09 22:38:15
-
- En mettant la Terre entière dans un réseau neuronal, l'équipe de l'Université de Beihang a lancé un modèle mondial de génération d'images de télédétection
- L'équipe de recherche de Beihang a utilisé un modèle de diffusion pour « reproduire » la Terre ? Partout dans le monde, le modèle peut générer des images de télédétection de plusieurs résolutions, créant ainsi des « scènes parallèles » riches et diverses. De plus, des caractéristiques géographiques complexes telles que le terrain, le climat et la végétation ont toutes été prises en compte. Inspirée par Google Earth, l'équipe de recherche de Beihang a « chargé » des images de télédétection satellitaire de la Terre entière dans un réseau neuronal profond depuis une perspective aérienne. Sur la base d'un tel réseau, l'équipe a construit MetaEarth, un modèle global de génération visuelle descendante. MetaEarth possède 600 millions de paramètres et peut générer des images de télédétection avec de multiples résolutions, illimitées et couvrant n’importe quel emplacement géographique dans le monde. Par rapport aux recherches précédentes, le modèle mondial de génération d’images de télédétection a
- IA 302 2024-06-09 21:56:30
-
- LeCun, PDG de Meta AI : Ne poursuivez pas un emploi LLM
- Produit | 51CTO Technology Stack (WeChat ID : blog51cto) Lors de VivaTech, la conférence technologique annuelle pour les startups à Paris, Yann LeCun, PDG de MetaAI, a conseillé aux étudiants qui souhaitent travailler dans l'écosystème de l'IA de ne pas poursuivre de travail de LLM (grand modèle de langage). Si vous souhaitez créer la prochaine génération de systèmes d'IA, vous n'êtes pas obligé de travailler en LLM. C'est une affaire de grande entreprise et vous ne pouvez pas y contribuer", a déclaré LeCun lors de la conférence. Il a également déclaré que les gens devraient développer des systèmes d'IA de nouvelle génération capables de surmonter les limites des grands modèles de langage. Fait intéressant, les discussions sur les alternatives LLM (Large Language Model) se sont poursuivies.
- IA 786 2024-06-09 20:29:50
-
- [Interprétation papier] L'attention du système 2 améliore l'objectivité et la factualité des grands modèles de langage
- 1. Brève introduction Cet article présente brièvement le travail connexe de l'article "System2Attention (quelque chose dont vous pourriez avoir besoin aussi)". Une attention douce dans les grands modèles de langage (LLM) basés sur des transformateurs peut facilement incorporer des informations non pertinentes du contexte dans sa représentation sous-jacente, ce qui affectera négativement la génération du prochain jeton. Pour aider à corriger ces problèmes, l'article présente System2Attention (S2A), qui exploite la capacité du LLM à raisonner en langage naturel et à suivre les instructions pour décider quoi traiter. S2A régénère le contexte d'entrée afin que le contexte d'entrée ne contienne que les parties pertinentes, puis
- IA 681 2024-06-09 20:03:51
-
- YOLOv10 est là ! Véritable détection de cible de bout en bout en temps réel
- Au cours des dernières années, les YOLO sont devenus un paradigme dominant dans le domaine de la détection d'objets en temps réel en raison de leur équilibre efficace entre le coût de calcul et les performances de détection. Les chercheurs ont mené une exploration approfondie de la conception structurelle, des objectifs d’optimisation, des stratégies d’amélioration des données, etc. des YOLO et ont réalisé des progrès significatifs. Cependant, le recours au post-traitement à la suppression non maximale (NMS) entrave le déploiement de bout en bout des YOLO et a un impact négatif sur la latence d'inférence. De plus, la conception de divers composants dans les YOLO ne fait pas l’objet d’un examen complet et approfondi, ce qui entraîne une redondance informatique importante et limite les performances du modèle. Cela se traduit par une efficacité sous-optimale et un énorme potentiel d’amélioration des performances. Dans ce travail, nous visons à faire progresser davantage l’avantage performance-efficacité des YOLO sous deux aspects : le post-traitement et l’architecture du modèle.
- IA 1005 2024-06-09 17:29:31