


Système d'exploitation d'agent IA grand modèle open source : contrôlez les agents IA comme Windos
Cet article est réimprimé avec la permission de AIGC Open Community Veuillez contacter la source pour la réimpression.
Si vous souhaitez en savoir plus sur AIGC, veuillez visiter : 51CTO AI. Il possède de puissantes capacités d'automatisation et crée une nouvelle piste d'agent IA. Cependant, de nombreux problèmes doivent encore être résolus en matière de planification des sous-tâches, d’allocation des ressources et de collaboration entre les IA.
Des chercheurs de l'Université Rutgers ont donc développé AIOS, un système d'exploitation d'agent d'IA avec de grands modèles en son cœur. Il peut résoudre efficacement le problème du faible taux d'appel des ressources à mesure que le nombre d'agents IA augmente. Il peut également favoriser le changement de contexte entre les agents, implémenter des agents simultanés et maintenir le contrôle d'accès des agents.
Adresse Open source : https://github.com/agiresearch/AIOS
Adresse papier : https://arxiv.org/abs/2403.16971
L'architecture d'AIOS et ce que nous utilisons Le système d'exploitation du PC est similaire et est principalement divisé en trois blocs principaux : la couche application, la couche noyau et la couche matérielle. La seule différence est qu'AIOS crée un gestionnaire de noyau dans la couche noyau qui gère spécifiquement les tâches liées aux grands modèles.
La couche application
,La couche matérielle se compose de périphériques matériels tels que le CPU, le GPU, la mémoire et les périphériques ; mais le cœur du grand modèle ne peut pas interagir directement avec le matériel. Au lieu de cela, les ressources matérielles sont gérées indirectement via des appels fournis par la couche noyau pour garantir l'intégrité et l'efficacité du système. AI Agent Scheduler
Le planificateur d'agent AI est principalement responsable de la planification et de l'optimisation raisonnables des demandes d'agent des grands modèles afin d'utiliser pleinement les ressources informatiques des grands modèles. Lorsque plusieurs agents lancent des requêtes vers un grand modèle en même temps, le planificateur doit trier les requêtes selon un algorithme de planification spécifique pour éviter qu'un seul agent n'occupe le grand modèle pendant une longue période et n'oblige les autres agents à attendre longtemps. .
De plus, la conception d'AIOS prend également en charge des stratégies de planification plus complexes, par exemple en tenant compte des dépendances entre les requêtes de proxy pour obtenir une allocation de ressources plus optimisée.
Lorsqu'il n'y a pas d'instruction de planification, les agents doivent exécuter les tâches une par une dans l'ordre, et les agents suivants doivent attendre longtemps Après avoir utilisé l'algorithme de planification, les demandes de chaque agent peuvent être entrelacées et exécuté en parallèle, réduisant considérablement le temps d'attente global et le délai de réponse
.Context Manager
Étant donné que le processus de génération de grands modèles utilise généralement des recherches heuristiques telles que Beam Search, l'arbre de recherche sera progressivement construit et différents chemins seront évalués pour finalement donner les résultats.
Cependant, si un grand modèle est interrompu par le planificateur pendant le processus de génération, afin d'éviter de perdre tous les états intermédiaires et de gaspiller les calculs précédents, le gestionnaire de contexte prendra un instantané de l'état actuel de l'arborescence Beam Search (y compris le probabilité de chaque chemin, etc.) .
Lorsque le grand modèle récupère les ressources d'exécution, le gestionnaire de contexte peut restaurer avec précision l'état précédent de Beam Search à partir du point d'interruption et continuer à générer les parties restantes, garantissant ainsi l'intégrité et l'exactitude du résultat final.
De plus, la plupart des grands modèles ont des limites de longueur de contexte, et le contexte d'entrée dans les scénarios réels dépasse souvent cette limite. Pour résoudre ce problème, le gestionnaire de contexte intègre des fonctions telles que le résumé de texte, qui peuvent compresser ou bloquer des contextes longs, permettant ainsi aux grands modèles de comprendre et de traiter efficacement les informations contextuelles longues.
Memory Manager
Le gestionnaire de mémoire est principalement responsable de la gestion des ressources de mémoire à court terme et de la fourniture d'un stockage temporaire efficace pour les journaux d'interaction et les données intermédiaires de chaque agent IA.
Lorsque l'agent IA est en attente d'exécution ou en cours d'exécution, les données dont il a besoin seront enregistrées dans le bloc mémoire alloué par le gestionnaire de mémoire. Une fois la tâche de l'agent terminée, le bloc mémoire correspondant sera également recyclé par le système pour garantir une utilisation efficace des ressources mémoire.
AIOS allouera de la mémoire indépendante à chaque agent IA et réalisera l'isolation de la mémoire entre les différents agents via le gestionnaire d'accès. À l'avenir, AIOS introduira des mécanismes de partage de mémoire plus complexes et des stratégies de mise en cache hiérarchique pour optimiser davantage les performances globales de l'agent IA.
Si vous souhaitez en savoir plus sur AIGC, veuillez visiter : 51CTO AI.x Community
https://www.51cto.com/aigc/
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Imaginez un modèle d'intelligence artificielle qui non seulement a la capacité de surpasser l'informatique traditionnelle, mais qui permet également d'obtenir des performances plus efficaces à moindre coût. Ce n'est pas de la science-fiction, DeepSeek-V2[1], le modèle MoE open source le plus puissant au monde est ici. DeepSeek-V2 est un puissant mélange de modèle de langage d'experts (MoE) présentant les caractéristiques d'une formation économique et d'une inférence efficace. Il est constitué de 236B paramètres, dont 21B servent à activer chaque marqueur. Par rapport à DeepSeek67B, DeepSeek-V2 offre des performances plus élevées, tout en économisant 42,5 % des coûts de formation, en réduisant le cache KV de 93,3 % et en augmentant le débit de génération maximal à 5,76 fois. DeepSeek est une entreprise explorant l'intelligence artificielle générale

Plus tôt ce mois-ci, des chercheurs du MIT et d'autres institutions ont proposé une alternative très prometteuse au MLP – KAN. KAN surpasse MLP en termes de précision et d’interprétabilité. Et il peut surpasser le MLP fonctionnant avec un plus grand nombre de paramètres avec un très petit nombre de paramètres. Par exemple, les auteurs ont déclaré avoir utilisé KAN pour reproduire les résultats de DeepMind avec un réseau plus petit et un degré d'automatisation plus élevé. Plus précisément, le MLP de DeepMind compte environ 300 000 paramètres, tandis que le KAN n'en compte qu'environ 200. KAN a une base mathématique solide comme MLP est basé sur le théorème d'approximation universelle, tandis que KAN est basé sur le théorème de représentation de Kolmogorov-Arnold. Comme le montre la figure ci-dessous, KAN a

Boston Dynamics Atlas entre officiellement dans l’ère des robots électriques ! Hier, l'Atlas hydraulique s'est retiré "en larmes" de la scène de l'histoire. Aujourd'hui, Boston Dynamics a annoncé que l'Atlas électrique était au travail. Il semble que dans le domaine des robots humanoïdes commerciaux, Boston Dynamics soit déterminé à concurrencer Tesla. Après la sortie de la nouvelle vidéo, elle a déjà été visionnée par plus d’un million de personnes en seulement dix heures. Les personnes âgées partent et de nouveaux rôles apparaissent. C'est une nécessité historique. Il ne fait aucun doute que cette année est l’année explosive des robots humanoïdes. Les internautes ont commenté : Les progrès des robots ont fait ressembler la cérémonie d'ouverture de cette année à des êtres humains, et le degré de liberté est bien plus grand que celui des humains. Mais n'est-ce vraiment pas un film d'horreur ? Au début de la vidéo, Atlas est allongé calmement sur le sol, apparemment sur le dos. Ce qui suit est à couper le souffle

Les performances de JAX, promu par Google, ont dépassé celles de Pytorch et TensorFlow lors de récents tests de référence, se classant au premier rang sur 7 indicateurs. Et le test n’a pas été fait sur le TPU présentant les meilleures performances JAX. Bien que parmi les développeurs, Pytorch soit toujours plus populaire que Tensorflow. Mais à l’avenir, des modèles plus volumineux seront peut-être formés et exécutés sur la base de la plate-forme JAX. Modèles Récemment, l'équipe Keras a comparé trois backends (TensorFlow, JAX, PyTorch) avec l'implémentation native de PyTorch et Keras2 avec TensorFlow. Premièrement, ils sélectionnent un ensemble de

L’IA change effectivement les mathématiques. Récemment, Tao Zhexuan, qui a prêté une attention particulière à cette question, a transmis le dernier numéro du « Bulletin de l'American Mathematical Society » (Bulletin de l'American Mathematical Society). En se concentrant sur le thème « Les machines changeront-elles les mathématiques ? », de nombreux mathématiciens ont exprimé leurs opinions. L'ensemble du processus a été plein d'étincelles, intense et passionnant. L'auteur dispose d'une équipe solide, comprenant Akshay Venkatesh, lauréat de la médaille Fields, le mathématicien chinois Zheng Lejun, l'informaticien de l'Université de New York Ernest Davis et de nombreux autres universitaires bien connus du secteur. Le monde de l’IA a radicalement changé. Vous savez, bon nombre de ces articles ont été soumis il y a un an.

La technologie de détection et de reconnaissance des visages est déjà une technologie relativement mature et largement utilisée. Actuellement, le langage d'application Internet le plus utilisé est JS. La mise en œuvre de la détection et de la reconnaissance faciale sur le front-end Web présente des avantages et des inconvénients par rapport à la reconnaissance faciale back-end. Les avantages incluent la réduction de l'interaction réseau et de la reconnaissance en temps réel, ce qui réduit considérablement le temps d'attente des utilisateurs et améliore l'expérience utilisateur. Les inconvénients sont les suivants : il est limité par la taille du modèle et la précision est également limitée ; Comment utiliser js pour implémenter la détection de visage sur le web ? Afin de mettre en œuvre la reconnaissance faciale sur le Web, vous devez être familier avec les langages et technologies de programmation associés, tels que JavaScript, HTML, CSS, WebRTC, etc. Dans le même temps, vous devez également maîtriser les technologies pertinentes de vision par ordinateur et d’intelligence artificielle. Il convient de noter qu'en raison de la conception du côté Web

Permettez-moi de vous présenter le dernier projet open source AIGC-AnimagineXL3.1. Ce projet est la dernière itération du modèle texte-image sur le thème de l'anime, visant à offrir aux utilisateurs une expérience de génération d'images d'anime plus optimisée et plus puissante. Dans AnimagineXL3.1, l'équipe de développement s'est concentrée sur l'optimisation de plusieurs aspects clés pour garantir que le modèle atteigne de nouveaux sommets en termes de performances et de fonctionnalités. Premièrement, ils ont élargi les données d’entraînement pour inclure non seulement les données des personnages du jeu des versions précédentes, mais également les données de nombreuses autres séries animées bien connues dans l’ensemble d’entraînement. Cette décision enrichit la base de connaissances du modèle, lui permettant de mieux comprendre les différents styles et personnages d'anime. AnimagineXL3.1 introduit un nouvel ensemble de balises et d'esthétiques spéciales

La détection de cibles est un problème relativement mature dans les systèmes de conduite autonome, parmi lesquels la détection des piétons est l'un des premiers algorithmes à être déployés. Des recherches très complètes ont été menées dans la plupart des articles. Cependant, la perception de la distance à l’aide de caméras fisheye pour une vue panoramique est relativement moins étudiée. En raison de la distorsion radiale importante, la représentation standard du cadre de délimitation est difficile à mettre en œuvre dans les caméras fisheye. Pour alléger la description ci-dessus, nous explorons les conceptions étendues de boîtes englobantes, d'ellipses et de polygones généraux dans des représentations polaires/angulaires et définissons une métrique de segmentation d'instance mIOU pour analyser ces représentations. Le modèle fisheyeDetNet proposé avec une forme polygonale surpasse les autres modèles et atteint simultanément 49,5 % de mAP sur l'ensemble de données de la caméra fisheye Valeo pour la conduite autonome.
