localisation actuelle:Maison > Articles techniques > technologie
- Direction:
- tous web3.0 développement back-end interface Web base de données Opération et maintenance outils de développement cadre php programmation quotidienne Applet WeChat Problème commun autre technologie Tutoriel CMS Java Tutoriel système tutoriels informatiques Tutoriel matériel Tutoriel mobile Tutoriel logiciel Tutoriel de jeu mobile
- Classer:
-
- OpenDevin a publié un rapport technique, une lecture incontournable pour les développeurs d'agents de grands modèles
- Plateforme d'agent grand modèle à usage général populaire. En mars de cette année, « le premier ingénieur logiciel d'IA au monde » Devin a fait exploser le cercle de l'IA. Contrairement aux précédents assistants de programmation IA, Devin ne joue pas seulement le rôle d'assistance à la programmation, mais peut mener à bien l'ensemble du projet de développement de manière indépendante et de bout en bout. La naissance de Devin nous a permis d’apprécier les puissantes capacités des Agents à grande échelle. Bientôt, de nombreux projets open source sont apparus dans l'industrie essayant de le copier, parmi lesquels OpenDevin s'est démarqué et a reçu le plus d'attention. OpenDevin est une plate-forme de développement d'agents à usage général qui interagissent avec le monde via des logiciels. Ses fonctionnalités incluent : un mécanisme d'interaction entre les agents, les interfaces et les environnements de grand modèle ; un système d'exploitation sandbox disponible pour les agents.
- IA 1052 2024-08-05 21:40:01
-
- Vitesse cible 1000 kilomètres par heure ! le test de démonstration et de vérification de l'intégration du système de voiture volante à grande vitesse de mon pays dans un environnement à faible vide a été réussi
- La voiture volante à grande vitesse chinoise a réalisé une percée. 1. Le test de démonstration et de vérification de l'intégration du système a été réussi. Selon le Science and Technology Daily, la China Aerospace Science and Industry Corporation et la province du Shanxi ont coopéré avec le véhicule à vide ultra-rapide. Le projet de ligne d'essai à grande échelle (1 phase) du système de transport par pipeline maglev (ci-après dénommé voiture volante à grande vitesse) a terminé avec succès le test de vérification de démonstration de l'intégration du système dans un environnement à faible vide dans le comté de Yanggao, ville de Datong, province du Shanxi, et a réussi le test et l'inspection sur place du département provincial des sciences et technologies du Shanxi. Cela indique que le projet remplit les conditions d'acceptation du projet. 2. Réaliser un super contrôle de navigation. Ce test utilise un super véhicule de navigation. Une fois l'environnement de faible vide établi dans le pipeline de 2 kilomètres, le super véhicule de navigation met les voiles, se stabilise et s'arrête selon la courbe de contrôle prédéterminée. , la vitesse de navigation maximale et la hauteur de suspension sont conformes aux valeurs prédéfinies et tous les systèmes fonctionnent normalement.
- Industrie informatique 397 2024-08-05 21:26:12
-
- Quel algorithme d'optimisation des préférences humaines est le meilleur ? Suivez le maître pour comprendre DPO, IPO et KTO
- Bien que les approches visant à collecter des étiquettes humaines sur la qualité relative du contenu généré par le modèle et à affiner les grands modèles de langage non supervisés pour se conformer à ces préférences grâce à l'apprentissage par renforcement à partir de la rétroaction humaine (RLHF), ont considérablement fait progresser le développement de l'IA conversationnelle. Cependant, comme le RLHF est un processus complexe et souvent instable, la recherche sur l’utilisation directe des fonctions d’optimisation pour aligner les préférences humaines sur les résultats du modèle est devenue un sujet brûlant de nos jours. Cet article est un blog sur huggingface, qui compare les performances de trois algorithmes d'optimisation des préférences humaines courants de nos jours. Les auteurs ont mené des expériences approfondies pour évaluer trois méthodes réalisables pour ajuster les modèles de langage sans apprentissage par renforcement (ou ajustement des préférences), en utilisant différents modèles et différents hyperparamètres. ce
- IA 744 2024-08-05 21:19:22
-
- La lettre du 11e anniversaire de Xiaohongshu reconnaît la maladie des grandes entreprises : une bureaucratie importante, des prises de décision retardées et la nécessité de tout recommencer
- Nouvelles de ce site le 2 août. Selon Sanyan Technology, à l'occasion du 11e anniversaire de Xiaohongshu, les fondateurs de l'entreprise Mao Wenchao (nom : Xingya) et Qu Fang (nom : Mulan) ont avoué dans leur lettre du 11e anniversaire, avec le développement rapide de l'entreprise, la soi-disant « maladie des grandes entreprises » est également apparue à Xiaohongshu. La lettre mentionne que lors des deux enquêtes organisationnelles menées par les habitants de Xiaohongshu l'année dernière, à partir des commentaires quotidiens des camarades de classe, nous avons constaté des cas graves qui s'écartaient de l'intention initiale de démarrer une entreprise et n'avaient fait qu'augmenter la consommation organisationnelle. « Par exemple, certains étudiants ont une position officielle très forte et ne s'impliquent pas eux-mêmes. Lorsqu'ils rencontrent des difficultés, ils ne font que pousser les étudiants de première ligne à faire des choses et à les résoudre ; certains dirigeants passent du temps chaque jour à analyser les intentions des niveaux supérieurs. mot par mot, et ne commentez pas les problèmes qui ont affecté l'expérience utilisateur. Des problèmes importants sont ignorés. "Il y a encore des responsables qui ne le font pas
- Industrie informatique 1063 2024-08-05 21:06:32
-
- 'Le meilleur des deux mondes', conception de molécules à partir de zéro, architecture de deep learning S4 pour la modélisation du langage chimique
- Editeur | KX L'apprentissage profond génératif remodèle la conception des médicaments. Les modèles de langage chimique (CLM), qui génèrent des molécules sous forme de chaînes de molécules, sont particulièrement importants dans ce processus. Récemment, des chercheurs de l’Université de technologie d’Eindhoven aux Pays-Bas ont introduit une dernière architecture d’apprentissage profond (S4) dans la conception de médicaments de novo. Le modèle Structured State Space Sequence (S4) présente d’excellentes performances dans l’apprentissage des propriétés globales de la séquence. Alors, S4 peut-il faire progresser la modélisation du langage chimique conçue à partir de zéro ? Pour répondre à cette question, les chercheurs ont systématiquement comparé S4 au CL de pointe sur une gamme de tâches de découverte de médicaments.
- IA 932 2024-08-05 20:58:22
-
- Comment choisir un schéma de compression et de quantification pour les grands modèles ? Évaluation complète du schéma de quantification Qllm-Eval du Wuwen Core Dome : multimodèle, multiparamètres, multidimensionnel
- Les modèles de langage à grande échelle basés sur l'architecture Transformer ont montré d'excellentes performances dans divers tests de référence, mais des échelles de paramètres de l'ordre de dizaines de milliards, de centaines de milliards, voire de milliards, entraîneront des coûts de service élevés. Par exemple, GPT-3 possède 175 milliards de paramètres, utilise le stockage FP16 et la taille du modèle est d'environ 350 Go, alors que même le dernier GPU B200 de Nvidia ne dispose que de 192 Go de mémoire, sans parler des autres GPU et appareils de pointe. La compression de grands modèles signifie « réduire » les grands modèles et les insérer dans des scénarios aux ressources limitées afin de réduire le stockage des modèles, l'accès à la mémoire et la surcharge de calcul. Améliorez le débit d'inférence des grands modèles sans perdre autant que possible les performances du modèle, afin que les grands modèles puissent être utilisés dans les appareils IoT Edge, les robots embarqués, les applications mobiles hors ligne, etc.
- IA 614 2024-08-05 20:56:12
-
- La mise au point de grands modèles doit-elle s'appuyer sur des données humaines ? DeepMind : l'auto-formation avec feedback est préférable
- Face à la pratique courante actuelle consistant à affiner de grands modèles en s'appuyant principalement sur des données générées par l'homme, Google DeepMind a exploré un moyen plus efficace de réduire cette dépendance. Comme vous et moi pouvons le constater, les grands modèles linguistiques (LLM) changent le paysage de l'apprentissage profond, démontrant des capacités supérieures à générer du texte de qualité humaine et à résoudre une variété de tâches linguistiques. Alors que l’industrie a encore amélioré ses performances sur des tâches spécifiques grâce à un réglage fin supervisé des données collectées par les humains, l’obtention de données humaines de haute qualité se heurte à d’importants goulots d’étranglement. Cela est particulièrement vrai pour les tâches qui impliquent de résoudre des problèmes complexes, nécessitant des ressources et une expertise importantes. Comment le résoudre? Les données synthétiques générées par les modèles constituent une alternative potentielle qui peut être évolutive et rentable tant que la qualité des données est maintenue.
- IA 898 2024-08-05 20:48:40
-
- Intégration de nouvelles qualités et résonance de la puissance de calcul : Bose Quantum lance une nouvelle génération d'ordinateur quantique optique cohérent à 550 qubits de calcul
- Le 18 avril 2024, Beijing Bose Quantum Technology Co., Ltd. (ci-après dénommé « Bose Quantum ») a organisé avec succès la conférence de lancement de nouveaux produits 2024 à Wangjing, Pékin, sur le thème « Intégration de nouvelles qualités et résonance de puissance de calcul". Pound a publié des résultats de recherche de base tels que la nouvelle génération d'ordinateur quantique à lumière cohérente avec 550 qubits de calcul - "Tiangong Quantum Brain 550W" et Kaiwu SDK, qui démontre pleinement l'intégration de l'informatique quantique et de l'IA et constitue le point de départ de informatique quantique pratique. En 2024, la technologie quantique jouera un rôle important dans le développement des industries futures et des nouvelles forces productives, comme le propose clairement la future configuration industrielle de Pékin.
- IA 1006 2024-08-05 20:43:00
-
- Apple permet aux grands modèles d'apprendre à être paresseux : crachez le premier jeton plus rapidement et maintenez la précision
- Être paresseux vous permet de mieux travailler. Llama 3.1 vient de sortir, l'avez-vous déjà essayé ? Même si votre ordinateur personnel est doté de la dernière configuration haut de gamme, l'exécution de la plus petite version 8B peut encore entraîner des retards importants. Afin d'améliorer l'efficacité du raisonnement du modèle, les chercheurs ont mis au point diverses méthodes, mais nombre d'entre elles amèneront le modèle à sacrifier une certaine précision. Récemment, une équipe de recherche d'Apple et MetaAI a proposé une nouvelle méthode qui peut augmenter la vitesse d'inférence de l'étape de pré-remplissage de Llama2 jusqu'à plus de 2 fois tout en garantissant que la précision ne diminue pas de manière significative. Cela pourrait améliorer l'accélération de Llama3.1. inspiration. Ils appellent cette approche LazyLLM, qui signifie Lazy Large Language Model. Titre de l'article : LazyL
- IA 568 2024-08-05 20:41:02
-
- Technologie Hier soir et ce matin 0805 : La première batterie au potassium 18650 au monde est lancée ; le conducteur de Lalamove a été plaint pour avoir refusé de transporter un corps. La version à autonomie étendue d'Avita 11/12 sera lancée en septembre ;
- C'est l'heure de "Technologie hier soir et ce matin", bonjour à tous, nous sommes le lundi 5 août 2024. L'information scientifique et technologique importante d'aujourd'hui est la suivante : la première batterie potassium-ion 18650 au monde est lancée, qui peut remplacer les batteries au lithium, a annoncé la société Group1. le lancement de la première batterie potassium-ion 18650 au monde. Une batterie potassium-ion à boîtier cylindrique 18650, une avancée qui promet de fournir une alternative durable et rentable aux batteries lithium-ion traditionnelles. >>Voir les détails Le Premier ministre thaïlandais a ordonné une enquête sur Temu, une filiale de Pinduoduo : si elle respecte la loi et paie les impôts requis. Selon Thaibsworld, le Premier ministre thaïlandais Srettha Thavisin a ordonné au ministère de l'Économie et de la société numériques, le bureau des impôts et la police enquêtent sur les sociétés de commerce électronique de Pinduoduo
- Industrie informatique 1123 2024-08-05 20:38:50
-
- Sous-journal Nature, 10 fois plus rapide, méthode de conception de séquences protéiques inverses basée sur Transformer
- Éditeur | La conception et l’ingénierie de Radis Skin Protein progressent à un rythme sans précédent grâce aux progrès de l’apprentissage profond. Cependant, les modèles actuels ne peuvent naturellement pas prendre en compte les entités non protéiques lors du processus de conception. Ici, des chercheurs de l'École Polytechnique Fédérale de Lausanne (EPFL) en Suisse proposent une méthode d'apprentissage en profondeur entièrement basée sur un transformateur géométrique de coordonnées atomiques et de noms d'éléments qui peut prédire les protéines sur la base d'échafaudages de base avec des contraintes imposées par différentes séquences d'environnements moléculaires. Grâce à cette méthode, les chercheurs peuvent produire des enzymes hautement thermostables et catalytiquement actives avec un taux de réussite élevé. Cela devrait augmenter la polyvalence des pipelines de conception de protéines pour atteindre les fonctions souhaitées. Cette étude utilise la « géométrie contextuelle
- IA 940 2024-08-05 20:33:31
-
- La production de masse du premier appareil pliable d'Apple est entravée, Jeff Pu a déclaré qu'elle serait difficile à réaliser en 2025 ou 2026
- Selon les informations du 3 août, MacRumors a récemment obtenu un nouveau rapport publié aux investisseurs par Jeff Pu, analyste chez Haitong International Securities, qui a souligné que le plan de production de masse du premier appareil pliable d'Apple a rencontré un « retard » et pourrait ne pas être en mesure de le faire. sera lancé comme prévu en 2025. La production de masse sera réalisée en 2026 ou 2026. Auparavant, Jeff Pu avait prédit dans un rapport de mai que le premier appareil pliable d'Apple entrerait en production de masse en 2025 et 2026. Il avait également prédit à l'époque qu'Apple pourrait d'abord lancer un iPad ou un MacBook pliable à grand écran, puis lancer un iPhone à écran pliable avec un plus grand potentiel de marché. Cette série de prédictions a attiré l’attention du marché et des consommateurs. Toutefois, selon la compréhension de l'éditeur, le dernier rapport a apporté une
- Industrie informatique 396 2024-08-05 20:32:02
-
- L'auteur de Transformer revient chez Google, et l'équipe fondatrice de Character.AI est 'acquise', tant que les gens ne veulent pas de l'entreprise
- Les startups d’IA finiront-elles dans les grandes entreprises ? Quand je me suis réveillé, le « concours de mangeurs de poulet » de l’IA générative diminuait à nouveau. La startup Character.AI a annoncé vendredi avoir signé un accord avec Google pour obtenir une licence non exclusive sur la technologie LLM (Large Language Model) de Character.AI. Google a également annoncé la réembauche de Noam Shazeer et Daniel DeFreitas. Parmi eux, NoamShazeer est le fondateur et PDG de Character.AI et l'un des auteurs de l'article Transformer. Il a déjà été ingénieur logiciel en chef chez Google. Daniel DeFreitas est président de Character.AI et a été ingénieur principal chez Google.
- IA 837 2024-08-05 20:17:10
-
- La vidéo haute définition n'est pas réelle. Les scènes 3D rendues sur plusieurs photos vous rendent difficile de distinguer l'authenticité.
- Veuillez noter que l'animation ci-dessus est entièrement une scène 3D rendue à partir de plusieurs photos. Il est difficile pour les humains de détecter leurs défauts. Voyons donc comment ce scénario est réalisé. Les grilles et les points sont les représentations les plus courantes des scènes 3D car ils sont explicites et bien adaptés à une rastérisation rapide basée sur GPU/CUDA. En revanche, les méthodes de pointe du champ de rayonnement neuronal (NeRF) reposent sur une représentation continue de la scène, utilisant souvent des perceptrons multicouches (MLP) optimisés pour le rendu des rayons volumétriques pour synthétiser de nouvelles perspectives sur la scène capturée. Bien que la continuité de ces méthodes facilite l'optimisation, l'échantillonnage aléatoire requis pour le rendu est coûteux et bruyant. Des chercheurs de l'Université de la Côte d'Azur ont introduit une nouvelle méthode combinant les deux méthodes
- IA 585 2024-08-05 20:15:51
-
- Pourquoi le modèle d'interaction retardée est-il la norme pour la prochaine génération de RAG ?
- La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Zhang Yingfeng : Co-fondateur d'Infra, avec de nombreuses années d'expérience dans la recherche, l'IA et le développement d'infrastructures Infra, il travaille actuellement à la construction de la prochaine génération de Produits de base RAG. Dans le développement du système RAG, un bon modèle Reranker est un maillon indispensable.
- IA 1124 2024-08-05 20:15:22