localisation actuelle:Maison > Articles techniques > Périphériques technologiques > IA
- Direction:
- tous web3.0 développement back-end interface Web base de données Opération et maintenance outils de développement cadre php programmation quotidienne Applet WeChat Problème commun autre technologie Tutoriel CMS Java Tutoriel système tutoriels informatiques Tutoriel matériel Tutoriel mobile Tutoriel logiciel Tutoriel de jeu mobile
- Classer:
-
- iFlytek annonce le lancement officiel de la nouvelle version d'iFlytek Zhiwen 2.0
- iFlytek iFlytek Smart Text 2.0 lancé iFlytek Spark V4.0 base de grand modèle génération de texte PPT grand modèle moteur de création d'arrangement AIPPT module d'édition en ligne PPT recherche de réseau en temps réel analyse de texte long AIWord fonction de lecture et d'écriture d'IA création de documents gestion des connaissances temps en ligne : 2023 nombre de documents générés en novembre : plus de 10 millions
- IA 701 2024-08-12 13:01:30
-
- Le dernier programme des invités de la conférence 2024AGI Business Trend est annoncé. Rendez-vous à Shenzhen pour assister au moment brillant de l'IA.
- En 2024, l’IA sera partout. En dehors de l’arène des géants, un plus grand nombre d’entrepreneurs, de développeurs et d’acteurs individuels s’intéressent de plus en plus à l’utilisation de l’IA pour répondre à des demandes commerciales spécifiques et améliorer leurs propres flux de travail. En tant que « prochain Internet » que l'industrie attend avec impatience, et même « une opportunité de plate-forme au-delà de l'Internet mobile », les entrepreneurs explorent activement la combinaison de l'intelligence avec des secteurs spécifiques et des scénarios précis tels que le marketing, la conception, le matériel, la finance, l'éducation et les soins médicaux. Du texte aux images, en passant par la musique et les vidéos ; des questions et réponses de connaissances aux guides d'achat et au service client, en passant par l'assistance au code, l'accompagnement émotionnel et même l'orientation et le tri médical, la consultation juridique, la recherche et le développement scientifiques, la prédiction de l'utilisation de l'IA pour "refaire". applications" semble être
- IA 726 2024-08-12 13:01:02
-
- La boîte noire est ouverte ! Outil d'explication visuelle de Transformer qui peut être joué, exécute GPT-2 localement et peut également effectuer un raisonnement en temps réel
- Nous sommes en 2024, y a-t-il quelqu'un qui ne comprend toujours pas comment fonctionne Transformer ? Venez essayer cet outil interactif. En 2017, Google a proposé Transformer dans l'article « Attentionisallyouneed », qui est devenu une avancée majeure dans le domaine de l'apprentissage profond. Le nombre de citations de cet article a atteint près de 130 000. Tous les modèles ultérieurs de la famille GPT sont également basés sur l'architecture Transformer, ce qui montre sa large influence. En tant qu'architecture de réseau neuronal, Transformer est populaire dans une variété de tâches allant du texte à la vision, en particulier dans le domaine actuellement brûlant des chatbots IA. Cependant, pour de nombreux non-professionnels, le contenu de Transformer
- IA 921 2024-08-11 16:03:00
-
- Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation d'Apple surpasse tout SOTA en quelques secondes
- Depuis la sortie de Sora, le domaine de la génération vidéo IA est devenu plus « occupé ». Au cours des derniers mois, nous avons vu Jimeng, RunwayGen-3, LumaAI et Kuaishou Keling exploser à tour de rôle. Contrairement au passé où l’on pouvait dire en un coup d’œil que les modèles étaient générés par l’IA, ce lot de grands modèles vidéo est peut-être le « meilleur » que nous ayons jamais vu. Cependant, derrière les performances étonnantes du modèle vidéo en grand langage (LLM) se cache un ensemble de données vidéo énormes et finement annotées, ce qui nécessite un coût très élevé. Récemment, un certain nombre de méthodes innovantes sont apparues dans le domaine de la recherche qui ne nécessitent pas de formation supplémentaire : utiliser de grands modèles de langage d'images entraînés pour traiter directement les tâches vidéo, contournant ainsi le processus de formation « coûteux ». De plus, la plupart des LLM vidéo existants
- IA 463 2024-08-11 16:02:31
-
- Les experts hybrides sont plus assertifs et peuvent percevoir plusieurs modalités et agir en fonction de la situation. Meta propose des hybrides experts conscients des modalités.
- Les experts mixtes ont également des spécialisations dans leur métier. Pour les modèles de base actuels à modalités mixtes, une conception architecturale courante consiste à fusionner des encodeurs ou des décodeurs de modalités spécifiques. Cependant, cette méthode présente des limites : elle ne peut pas intégrer des informations provenant de différentes modalités et il est difficile de produire du contenu contenant plusieurs modalités. Afin de surmonter cette limitation, l'équipe Chameleon de MetaFAIR a proposé une nouvelle architecture Transformer unique dans l'article récent « Chameleon : Mixed-modalearly-fusionfoundationmodels », qui peut transformer des images et du texte discrets en fonction de la cible de prédiction du prochain jeton. une séquence composée de jetons est modélisée, de sorte que dans différents modes
- IA 388 2024-08-11 13:02:22
-
- Modèle open source et fermé « Chaos » : voyons quel agent peut le mieux entrevoir les véritables intentions des êtres humains
- La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Les premiers auteurs de cet article sont Qian Cheng et He Bingxiang, étudiants de premier cycle au département d'informatique de l'université Tsinghua. Tous deux sont membres du THUNLP. Les principaux intérêts de recherche de Qian Cheng sont l'apprentissage par outils et les grands agents pilotés par modèles. Il est sur le point d'étudier pour un doctorat à l'UIUC. Les principaux intérêts de recherche de He Bingxiang sont l’alignement des grands modèles et
- IA 1204 2024-08-11 13:02:02
-
- La première fête de l'intelligence artificielle s'est déroulée avec succès
- En 1905, le premier film « La Montagne Dingjun » tourné par les Chinois eux-mêmes est né au studio photo Fengtai de Pékin, mettant fin à l'histoire de l'absence de films nationaux en Chine. Plus de cent ans plus tard, le 28 août 2023, dans la salle « Cœur original » du bâtiment des nouveaux médias du Quotidien du Peuple, une chanson « New Dingjun Mountain » a été interprétée dans le cadre d'une « coopération interdimensionnelle » par des étudiants chinois. Académie d'Opéra et personne numérique Mu Lan, déclenchant des salves d'applaudissements de la part du public présent. L'art ancien de l'Opéra de Pékin, la technologie itérative de lumière et d'ombre et la nouvelle technologie numérique rendent hommage aux classiques tout en traversant les époques et en montrant un nouveau charme. Il s'agit de l'un des programmes majeurs lancés par le premier gala sur l'intelligence artificielle (IA) organisé par le Quotidien du Peuple en ligne. A travers une série de festivals culturels pleins de technologie, d'intelligence et d'avenir, la fête
- IA 504 2024-08-10 22:23:02
-
- Publication des meilleurs articles TOP20 Young Excellent de la Conférence mondiale sur l'intelligence artificielle 2024
- En mars 2024, l'« Avis sur la recommandation d'articles participants au « Prix des articles exceptionnels de la jeunesse de la Conférence mondiale sur l'intelligence artificielle 2024 » » a été publié et une activité de collecte de jeunes articles exceptionnels dans le domaine de l'intelligence artificielle a été lancée pour les universités et les instituts de recherche scientifique. , et des entreprises du monde entier. À la date limite de soumission, un total de 159 articles de synthèse ont été reçus de pays nationaux et étrangers, notamment d'universités, d'institutions de recherche scientifique et d'entreprises de renommée internationale. Après une évaluation et une réévaluation préliminaires, les articles jeunesse TOP20 exceptionnels en 2024 sont désormais publiés. (Par ordre alphabétique par domaine de papier et par nom) Le prix Youth Outstanding Paper Award de la Conférence mondiale sur l'intelligence artificielle 2024 sera annoncé lors de la Conférence mondiale sur l'intelligence artificielle en juillet, alors restez à l'écoute !
- IA 980 2024-08-10 16:06:11
-
- Aperçu du forum | Le forum « Les connaissances changent le monde – Le grand modèle vertical redéfinit la gestion des connaissances » est sur le point d'ouvrir
- Introduction : La technologie des grands modèles présente un grand potentiel pour accélérer l’acquisition, l’intégration, l’application et l’innovation des connaissances, et peut avoir un impact transformateur sur de nombreux secteurs tels que l’éducation, la finance et les affaires gouvernementales. À l'heure actuelle, l'application de grands modèles verticaux dans les scénarios d'entreprise en Chine en est encore au stade exploratoire. De nombreuses entreprises recherchent encore le meilleur plan de mise en œuvre pour les grands modèles, parmi lesquels une intégration approfondie avec la base de connaissances interne de l'entreprise est considérée comme le meilleur. scénario au niveau de l'entreprise pour la mise en œuvre de grands modèles verticaux direction d'application importante. À cette fin, lors de la Conférence mondiale sur l'intelligence artificielle 2024 et de la Conférence de haut niveau sur la gouvernance mondiale de l'intelligence artificielle, Daguan Data s'associera au Centre commun de recherche sur les grands modèles d'applications verticales financières Fudan-Daguan et à la Fédération de la jeunesse de Pudong pour organiser conjointement "Les connaissances changent le grand forum vertical mondial sur le thème" Le modèle redéfinit la gestion des connaissances ". Le forum se tiendra en juillet 2024
- IA 957 2024-08-10 11:20:06
-
- Sélectionnée à l'ICDE, la plus grande conférence internationale sur les bases de données, l'innovation technologique des bases de données Tencent Cloud a été reconnue par l'autorité
- J'ai appris aujourd'hui que deux articles de Tencent Cloud Database ont été sélectionnés pour l'ICDE, la plus grande conférence internationale sur les bases de données. Son protocole de transaction distribué - Lion et son cadre de conception d'index couvrant les disques mémoire ont résolu des problèmes courants dans le domaine des bases de données, et son innovation technologique a été reconnue par les autorités internationales. L'équipe Tencent Cloud Database a partagé la technologie sur le site de l'ICDE (IEEE International Conference on Data Engineering) est une conférence internationale dans le domaine de la recherche sur les bases de données. Avec SIGMOD et VLDB, elle est également connue comme les trois principales conférences sur les bases de données. Traitement des transactions de base de données distribuées Le traitement des transactions distribuées implique plusieurs cycles de communication entre nœuds et est lent. migration passée
- IA 639 2024-08-10 07:10:06
-
- L'IA m'aide dans mes devoirs, mais ne le fait pas à ma place (ChatGPT, NotebookLM)
- Je suis un étudiant diplômé hétérosexuel avec des sentiments mitigés sur les outils d'IA. De nombreuses personnes utilisent l’IA pour remplacer leurs propres efforts dans un cadre universitaire. Mais vous pouvez utiliser l’IA pour faciliter votre apprentissage, accroître l’efficacité de la recherche et améliorer vos études. Démarrer en De
- IA 739 2024-08-10 06:43:32
-
- Tongyi Qianwen open source Qwen2-Math, devenant le modèle spécifique aux mathématiques le plus avancé
- Selon les informations du 9 août, l'équipe d'Alibaba Tongyi a open source une nouvelle génération de modèle mathématique Qwen2-Math, qui comprend un modèle de base et un modèle de réglage fin des instructions avec trois paramètres de 1,5B, 7B et 72B. Qwen2-Math est développé sur la base du grand modèle de langage open source Tongyi Qianwen Qwen2. Le modèle phare Qwen2-Math-72B-Instruct obtient des scores supérieurs à GPT-4o, Claude-3.5-Sonnet, Gemini-1.5-Pro et Llama. L'ensemble d'évaluation faisant autorité MATH.-3.1-405B, etc., traite une variété de problèmes mathématiques tels que l'algèbre, la géométrie, le comptage et les probabilités, la théorie des nombres, etc. avec une précision de 84 %, devenant ainsi le modèle spécifique aux mathématiques le plus avancé. REMARQUE : Dans l'évaluation de référence MATH
- IA 778 2024-08-09 19:44:14
-
- Conférence des développeurs Google I/O China Station : la technologie des grands modèles entre dans l'ensemble de l'écosystème
- Mercredi, Google a tenu sa conférence des développeurs chinois à Pékin. Outre la conférence I/O à Mountain View, en Californie, en mai, la tournée mondiale I/OConnect de cette année a débuté de Berlin, en Allemagne, à Bangalore, en Inde, et est également arrivée à Pékin, en Chine. Lors de cet événement, des experts de nombreux domaines différents ont partagé en profondeur les dernières avancées technologiques, outils de développement et plates-formes de services mondiales de Google dans les domaines de l'IA, du Web, du mobile, de la technologie cloud et d'autres domaines pour les développeurs nationaux. « La Chine est l'un des plus grands marchés de développement au monde, et nos développeurs ont toujours été une force pionnière indispensable sur la scène mondiale », a déclaré Chen Junting, président de Google Greater China, dans son discours d'ouverture. "Au cours de l'année écoulée, 25 équipes de développement chinoises ont produit un total de 31 jeux et applications dans différentes régions du monde.
- IA 599 2024-08-09 19:42:02
-
- Effectuer le calcul du MD sur 1 an en 2,5 jours ? La nouvelle méthode de calcul de l'équipe DeepMind basée sur Euclidean Transformer
- Editeur | Radis Skin Ces dernières années, de grands progrès ont été réalisés dans le développement de champs de force d'apprentissage automatique (MLFF) basés sur des calculs de référence ab initio. Bien que de faibles erreurs de test soient obtenues, la fiabilité du MLFF dans les simulations de dynamique moléculaire (MD) fait l'objet d'un examen minutieux croissant en raison de préoccupations concernant l'instabilité sur des échelles de temps de simulation plus longues. La recherche a montré un lien potentiel entre la robustesse aux inexactitudes cumulatives et l'utilisation de représentations équivariantes dans MLFF, mais les coûts de calcul associés à ces représentations peuvent limiter cet avantage en pratique. Pour résoudre ce problème, des chercheurs de Google DeepMind et de l'Université technique de Berlin (TUBerlin) ont proposé un cadre de transformation appelé SO3krates.
- IA 697 2024-08-09 19:40:30
-
- Les opinions de Karpathy sont controversées : le RLHF n'est pas un véritable apprentissage par renforcement, et Google et Meta s'y opposent.
- Il semble que tout le monde ait encore des opinions différentes sur la question de savoir si RLHF et RL peuvent être classés dans la même catégorie. Le gourou de l'IA Karpathy est de nouveau là pour populariser le concept d'intelligence artificielle. Hier, il a tweeté : « L'apprentissage par renforcement basé sur le feedback humain (RLHF) n'est qu'un apprentissage par renforcement (RL). » Le texte intégral de Karpathy est expliqué comme suit : RLHF est la troisième (et aussi la troisième) méthode de formation de grands modèles de langage (LLM). ). La dernière) étape principale, les deux premières étapes sont la pré-formation et la mise au point supervisée (SFT). Je pense que le RLHF est à peine considéré comme RL et qu'il n'est pas largement reconnu. RL est puissant, mais RLHF ne l’est pas. Regardons l'exemple d'AlphaGo, qui a été formé à l'aide d'un vrai RL. jeux informatiques
- IA 1015 2024-08-09 16:40:09