Maison > Périphériques technologiques > IA > le corps du texte

La liste des recherches sur l'IA les plus populaires de juillet est publiée, le dernier « Modèle standard » de Ma Yi étant classé neuvième.

王林
Libérer: 2023-05-02 15:25:06
avant
1186 Les gens l'ont consulté

La liste des recherches sur l'IA les plus populaires en juillet est sortie !

Cette liste compilée par l'utilisateur de Reddit @bycloudai est classée parmi les dix meilleures recherches sur l'IA en juillet 2022 sur la base des likes sur Twitter, des retweets et des stars de Github, notamment DeepMind, Google, MIT CSAIL et d'autres mécanismes bien connus.

La liste des recherches sur lIA les plus populaires de juillet est publiée, le dernier « Modèle standard » de Ma Yi étant classé neuvième.

Voyons qui sont les grands sur la liste ~

TOP1 : Algorithmes formels pour les transformateurs

Auteur : Mary Phuong, Marcus Hutter

Organisation : DeepMind

La liste des recherches sur lIA les plus populaires de juillet est publiée, le dernier « Modèle standard » de Ma Yi étant classé neuvième.

Résumé : Objectif de cet article avant de devenir un aperçu autonome et mathématiquement précis de l'architecture et des algorithmes de Transformer. Il couvre ce que sont les Transformers, comment ils sont formés, leurs utilisations, leurs composants architecturaux clés et un aperçu des modèles les plus importants.

Top2 : Modélisation adaptative du langage en toute confiance

Auteurs : Tal Schuster, Adam Fisch, Jai Gupta, Mostafa Dehghani, Dara Bahri, Vinh Q Tran, Yi Tay, Donald Metzler

Institution : Google, MIT CSAIL

La liste des recherches sur lIA les plus populaires de juillet est publiée, le dernier « Modèle standard » de Ma Yi étant classé neuvième.

Résumé : Les progrès récents dans les grands modèles de langage (LLM) basés sur Transformer ont entraîné des améliorations significatives des performances sur de nombreuses tâches. Cependant, même si les performances s'améliorent, la taille du modèle augmente également considérablement, ce qui peut entraîner des processus d'inférence complexes et une augmentation des coûts. En pratique, cependant, les grands modèles de langage produisent une série d’itérations comportant différents degrés de difficulté.

Dans ce travail, nous introduisons le Confident Adaptive Language Model-ing (CALM), un cadre qui alloue dynamiquement différentes quantités d'entrées informatiques et la durée de génération.

Le décodage de sortie anticipée implique plusieurs problèmes que nous abordons ici, tels que : (1) quelle métrique de confiance utiliser ; (2) relier les contraintes au niveau de la séquence aux décisions de sortie pour les jetons locaux ; (3) le retour en arrière en raison du masquage avancé des jetons précédents ; représentation perdue à la sortie. Grâce à une analyse théorique et à des expériences sur trois tâches de génération de texte différentes, nous démontrons l'efficacité de notre cadre pour réduire le calcul - en l'accélérant potentiellement jusqu'à 3x tout en maintenant des performances élevées.

Top3 : Les modèles linguistiques savent (pour la plupart) ce qu'ils savent

Auteurs : Saurav Kadavath, Tom Conerly, Amanda Askell, Tom Henighan, etc.

Institution : Anthropic

La liste des recherches sur lIA les plus populaires de juillet est publiée, le dernier « Modèle standard » de Ma Yi étant classé neuvième.

Résumé : Cet article étudie si les modèles linguistiques peuvent évaluer eux-mêmes la validité des affirmations et prédire à quelles questions ils seront capables de répondre correctement. Nous montrons d’abord que lorsque des modèles plus grands sont fournis dans le format correct, ils se calibrent bien à une variété de questions à choix multiples et de questions vrai/faux. Par conséquent, nous pouvons auto-évaluer la tâche d’échantillonnage ouvert en demandant au modèle de proposer d’abord une réponse, puis d’évaluer la probabilité P(Vrai) que sa réponse soit correcte.

Nous trouvons les performances, l’étalonnage et la mise à l’échelle de P(True) passionnants dans une variété de tâches. Les performances de l’auto-évaluation s’améliorent encore lorsque nous permettons au modèle de considérer plusieurs de ses propres échantillons avant de prédire la validité d’une possibilité particulière. Ensuite, nous étudions si nous pouvons entraîner un modèle pour prédire P(IK), la probabilité de « Je connais la réponse à la question », sans référence à une réponse spécifique suggérée.

Top4 : YOLOv7 : un sac de cadeaux entraînables établit un nouvel état de l'art pour les détecteurs d'objets en temps réel

Auteur : Chien-Yao Wang, Alexey Bochkovskiy, Hong-Yuan Mark Liao

Institution : Institut d'information Science, Academia Sinica

La liste des recherches sur lIA les plus populaires de juillet est publiée, le dernier « Modèle standard » de Ma Yi étant classé neuvième.

Top5 : Modèle de langage Cascades

Auteur : David Dohan, Winnie Xu, Aitor Lewkowycz, etc.

Institution : Google

La liste des recherches sur lIA les plus populaires de juillet est publiée, le dernier « Modèle standard » de Ma Yi étant classé neuvième.

Top6 : Rendu neuronal collaboratif à l'aide de feuilles de caractères Anime

Auth ou : Zuzeng Lin, Ailin Huang, Zhewei Huang, etc.

Institutions : Wuhan University, Megvii Technology

La liste des recherches sur lIA les plus populaires de juillet est publiée, le dernier « Modèle standard » de Ma Yi étant classé neuvième.

Top7 : Les réseaux de neurones et la hiérarchie Chomsky

Auteurs : Grégoire Delétang, Anian Ruoss, Jordi Grau-Moya, Tim Genewein, etc.

Institution : DeepMind

La liste des recherches sur lIA les plus populaires de juillet est publiée, le dernier « Modèle standard » de Ma Yi étant classé neuvième.

La liste des recherches sur lIA les plus populaires de juillet est publiée, le dernier « Modèle standard » de Ma Yi étant classé neuvième.Top8 : Modélisation du langage avec Pixels​

Auteur : Phillip Rust, Jonas F. Lotz, Emanuele Bugliarello, etc.

Institution : Université de Copenhague, Université Johns Hopkins, Université d'Uppsala

La liste des recherches sur lIA les plus populaires de juillet est publiée, le dernier « Modèle standard » de Ma Yi étant classé neuvième.

Top9 : Sur les principes de parcimonie et d'auto-cohérence pour l'émergence de l'intelligence

Auteurs : Ma Yi, Cao Ying, Shen Xiangyang

Institution : Université de Californie, Berkeley, Guangdong-Hong Kong-Macao Greater Bay Area Institut de recherche sur l'économie numérique

La liste des recherches sur lIA les plus populaires de juillet est publiée, le dernier « Modèle standard » de Ma Yi étant classé neuvième.

Cet article est une revue de recherche sur l'émergence et le développement de l'intelligence artificielle publiée par le professeur Ma Yi, l'informaticien Dr Shen Xiangyang et le neuroscientifique professeur Cao Ying. du développement de l’IA au cours des 70 dernières années.

Top10 : Lois de mise à l'échelle par rapport aux architectures de modèles : Comment le biais inductif influence-t-il la mise à l'échelle

Auteur : Yi Tay, Mostafa Dehghani, Samira Abnar

Institution : Google, DeepMind

La liste des recherches sur lIA les plus populaires de juillet est publiée, le dernier « Modèle standard » de Ma Yi étant classé neuvième.

Après avoir lu les articles des 10 meilleurs experts, parlons de quelques détails intéressants de cette liste.

Comme nous le savons tous, les likes Twitter peuvent être générés par des robots. L’utilisation par l’auteur du nombre de likes comme indicateur clé de la liste est en effet sujette à caution.

La liste des recherches sur lIA les plus populaires de juillet est publiée, le dernier « Modèle standard » de Ma Yi étant classé neuvième.

De plus, le "Infinite Visual Generation Model NUWA-Infinity", précédemment très demandé, ne s'est classé que 12e en termes de nombre de likes sur Twitter, mais son nombre d'étoiles Github a dépassé 2,4k.

La liste des recherches sur lIA les plus populaires de juillet est publiée, le dernier « Modèle standard » de Ma Yi étant classé neuvième.

Depuis que NUWA Infinity a publié sa première version dès novembre 2021, cette liste ne compte que le nombre de likes pour la deuxième version suivante, elle n'est donc classée que 12ème.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal