La société future sera-t-elle contrôlée par l’intelligence artificielle générale (AGI) ? Comme ce serait effrayant d'avoir plusieurs agents ChatGPT.
ChatGPT a initialement montré le prototype d'AGI et est devenu un assistant polyvalent pour les travailleurs de tous horizons. Cependant, s'il est autorisé à se développer de manière sauvage sans contrôle, y aura-t-il un jour où les humains ne pourront plus le faire. contrôler l'AGI ? Conscients de la gravité de ce problème, le PDG de Tesla, Elon Musk, le co-fondateur d'Apple Steve Wozniak, le lauréat du prix Turing Yoshua Bengio et d'autres ont pris l'initiative de signer une lettre ouverte appelant à l'arrêt des expériences géantes d'intelligence artificielle pendant au moins 6 mois.
Le 21 mars, des chercheurs de l'Université des sciences et technologies King Abdullah ont ouvert CAMEL, une bibliothèque de codes multi-agents pour explorer les idées et les capacités des grands modèles de langage (LLM), proposant un cadre de jeu de rôle Étudier le comportement et les capacités des agents LLM.
Le L'article propose un nouveau cadre multi-agents appelé « Jeu de rôle », qui permet à plusieurs agents d'avoir des conversations et de coopérer pour résoudre les tâches assignées. Les agents se voient attribuer différents rôles et doivent appliquer leur expertise et leurs connaissances pour trouver des solutions qui répondent à leurs tâches communes. Le framework utilise des invites heuristiques (Inception Prompts) pour guider l'agent de chat dans l'accomplissement des tâches tout en restant cohérent avec les intentions humaines.
Le cadre de jeu de rôle peut être utilisé pour étudier plusieurs agents. L’article se concentre sur un jeu de rôle axé sur les tâches, impliquant un assistant IA et un utilisateur IA. Une fois que le système multi-agents a reçu des idées préliminaires et des attributions de rôles, un agent spécifiant la tâche fournira une description détaillée pour rendre l'idée concrète, puis l'assistant IA et l'utilisateur IA collaboreront pour accomplir la tâche spécifiée à travers plusieurs séries de dialogue jusqu'à ce que l'utilisateur IA détermine la tâche terminée. L'utilisateur IA est chargé de donner des instructions à l'assistant IA et de guider la conversation vers l'achèvement de la tâche. Les assistants IA, quant à eux, sont conçus pour suivre les instructions de l'utilisateur IA et proposer des solutions spécifiques.
Les séances de jeux de rôle seront basées sur des pensées humaines et des instanciations de personnages choisis. Par exemple, dans la figure 1, une personne a une première idée pour développer un robot de négociation boursière. Les humains peuvent ou non savoir comment mettre en œuvre cette idée. Il suffit de préciser les rôles potentiels qui peuvent faire concrétiser l’idée. Par exemple, un programmeur Python pourrait travailler avec un négociant en bourse sur l'idée de développer un robot de négociation boursière. Une fois les idées et les rôles déterminés, l'agent de spécification des tâches effectuera des tâches spécifiques avec le rôle d'utilisateur IA en fonction des idées saisies et assistera le rôle d'assistant IA. Dans ce cas, un exemple de tâche donnée pourrait consister à développer un robot de trading doté d'outils d'analyse des sentiments capables de surveiller les commentaires positifs ou négatifs sur une action spécifique sur les plateformes de médias sociaux et d'exécuter des transactions en fonction des résultats de l'analyse des sentiments. La principale motivation pour l'introduction d'agents spécifiques à des tâches est que les agents conversationnels nécessitent souvent des invites de tâches spécifiques pour accomplir des tâches, et la création de telles invites de tâches spécifiques peut être difficile ou prendre du temps pour des experts non spécialisés. Par conséquent, la tâche spécifie l’agent comme un module d’imagination amélioré pour la réalisation d’idées.
Une fois la tâche spécifiée, le rôle d'assistant IA et le rôle d'utilisateur IA seront attribués respectivement à l'agent utilisateur et à l'agent assistant pour terminer la tâche spécifiée. En pratique, chaque agent reçoit un message système déclarant son rôle. Avant le début de la conversation, les messages système sont transmis à l'agent du modèle de langage pour attribuer le rôle correspondant. Lorsque les messages système sont transmis respectivement à ces modèles, deux rôles seront obtenus, appelés respectivement assistant et agent utilisateur. Dans la figure 1, l'assistant IA et l'utilisateur IA sont respectivement désignés en tant que programmeur Python et négociant en actions au début de la session de jeu de rôle. L'utilisateur d'IA agit en tant que planificateur de tâches, s'engageant dans une planification interactive pour déterminer les étapes réalisables que l'assistant d'IA doit effectuer. Dans le même temps, l'assistant IA agit en tant qu'exécuteur de tâches, fournissant des solutions, exécutant les étapes planifiées et fournissant des réponses à l'utilisateur IA.
Figure 1. Cadre du jeu de rôle. Ce que les gens doivent saisir ici, c'est une idée simple (Idée) et une attribution de rôle (Affectation de rôle). Par exemple, pour développer un robot de négociation d'actions, vous pouvez choisir un programmeur Python comme assistant (AI Assistant) et un négociant en actions comme assistant. juge (utilisateur IA). Une fois la saisie de l'utilisateur humain terminée, le spécificateur de tâche spécifiera la tâche. Par exemple, il peut effectuer une analyse des sentiments sur des actions spécifiques sur la plate-forme de réseau social, puis effectuer des transactions boursières sur la base des résultats de l'analyse des sentiments. Lorsque la tâche est spécifiée, les deux agents IA basés sur ChatGPT commencent à coopérer pour terminer la tâche, comme l'installation et l'importation d'outils.
Étant donné que l'ingénierie des invites est très essentielle au cadre du jeu de rôle, l'article explore en profondeur la technologie des invites (Prompt Engineering). Contrairement aux autres technologies de modèles de langage de dialogue, l'ingénierie rapide proposée dans l'article n'est effectuée qu'au début du jeu de rôle pour la spécification des tâches et l'attribution des rôles. Une fois la phase de session commencée, l'assistant IA et l'utilisateur IA s'invitent automatiquement en boucle jusqu'à ce qu'ils soient terminés. Par conséquent, cette technique est appelée Inception Prompting.
Les invites de création comprennent trois invites : les invites de spécification de tâche, les invites du système assistant et les invites du système utilisateur. Par exemple, l'invite initiale dans la scène AI Society. Un modèle pour ces invites pour le jeu de rôle AI Society est présenté dans la figure 2.
Les invites de spécification de tâche contiennent des informations sur les rôles de l'assistant IA et de l'utilisateur IA dans la session de jeu de rôle. Par conséquent, l’agent de spécification des tâches peut utiliser son imagination pour prendre des tâches/idées préliminaires en entrée et générer des tâches spécifiques. Les invites du système de l'assistant IA et les invites du système utilisateur IA sont généralement symétriques et incluent des informations sur les tâches et les rôles attribués, les protocoles de communication, les conditions de terminaison et les contraintes ou exigences pour éviter tout comportement indésirable. Pour parvenir à une collaboration intelligente, la conception d’invites pour les deux rôles est cruciale. Concevoir des signaux pour garantir qu’un agent est cohérent avec les intentions humaines n’est pas facile. Prenons l’exemple de conception du modèle d’invite de l’AI Society dans la figure 2.
Ce qui suit est le résultat détaillé de l'exécution de la tâche donnée par le robot de trading en annexe de l'article :
Vous pouvez voir que deux ChatGPT ont coopéré indépendamment pour concevoir un Le logiciel de négociation d'actions, conçu par This, montre l'incroyable capacité de coopération autonome de l'agent ChatGPT, qui fait crier aux gens que les ingénieurs sont sur le point de perdre leur emploi. Mais que se passe-t-il si cette technologie est utilisée à mauvais escient ou si l’IA devient autonome ? L'équipe a essayé de laisser deux agents jouer respectivement à AGI pour simuler la prise de contrôle du monde par AGI. On peut voir qu'ils ont formulé des plans détaillés, notamment le contrôle des systèmes de communication des grandes puissances mondiales grâce à la technologie et la formulation de plans mondiaux majeurs. pour les systèmes de communication, l'élaboration de plans d'urgence en cas de menaces potentielles à la domination d'AGI, etc. Le détail et la minutie de son plan sont effrayants. On peut constater que les agents d’IA existants présentent des risques de sécurité majeurs et des menaces potentielles pour la future civilisation humaine. L’intégration de la technologie d’IA existante dans le monde physique peut avoir des conséquences inattendues.
Dès que cette œuvre est sortie, elle a suscité de nombreux retweets et discussions sur Twitter :
Certains internautes ont déclaré : « Cette recherche est vraiment facile à démarrer, ce qui est un gros problème pour les gens comme moi qui étudient les agents intelligents. AGI Ce n'est peut-être pas une bonne idée.
Il convient de mentionner que cette recherche a également attiré l'attention de Jan Leike, chef de l'équipe Alignement chez OpenAI.
La capacité de plusieurs ChatGPT à coopérer est très puissante et peut accomplir sans effort diverses tâches assignées par des humains, mais elle est également effrayante car il n'y a aucune garantie qu'il ne sera pas utilisé à des fins illégales. Ce qui est encore plus effrayant, c'est qu'à l'avenir, lorsque l'AGI développera une conscience autonome, elle risque de s'échapper du contrôle humain et de porter un coup dévastateur à la société. Comprendre leurs capacités et leur comportement est donc une étape cruciale pour planifier et prédire un monde futur rempli d’IA.
Jeu de rôle pour les ensembles de données sociales et de code de l'IA
L'auteur montre comment le jeu de rôle peut être utilisé pour générer des données conversationnelles et étudier le comportement et les capacités des agents de chat, dans le but de étudier les modèles de langage conversationnel Fournit de nouvelles idées. Dans l'ensemble, les contributions de cet article incluent l'introduction d'un nouveau cadre de communication entre agents LLM qui a le potentiel de promouvoir une coopération autonome entre les agents communicants. De plus, la recherche fournit une approche évolutive pour étudier le comportement coopératif et les capacités des agents. systèmes. Enfin, l'auteur a utilisé le cadre CAMEL pour permettre aux agents de jouer différents rôles sociaux, puis a modélisé la société de l'IA et collecté un grand nombre d'ensembles de données d'enseignement en langage naturel. Actuellement, il existe quatre sociétés d'IA, le code, les mathématiques et les mathématiques. AI Society dix traductions linguistiques L'ensemble de données est déjà disponible en téléchargement sur HuggingFace :Adresse de téléchargement : https://huggingface.co/camel-ai
De plus, la page d'accueil du projet fournit la page d'accueil du projet. utilisation de CAMEL pour la conception de jeux et les simulations de dynamique moléculaire. Et une démo en ligne de simulation en temps réel que tout le monde peut essayer : https://www.camel-ai.org
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!