Maison Périphériques technologiques IA Avant la sortie de GPT-4, OpenAI a embauché des experts de divers secteurs pour effectuer des « tests contradictoires » afin d'éviter des problèmes tels que la discrimination.

Avant la sortie de GPT-4, OpenAI a embauché des experts de divers secteurs pour effectuer des « tests contradictoires » afin d'éviter des problèmes tels que la discrimination.

Apr 30, 2023 pm 05:28 PM
openai gpt-4

Avant la sortie de GPT-4, OpenAI a embauché des experts de divers secteurs pour effectuer des « tests contradictoires » afin déviter des problèmes tels que la discrimination.

Selon l'actualité du 17 avril, la start-up d'intelligence artificielle OpenAI a embauché des experts de tous horizons pour former une « armée bleue » avant de lancer le projet à grande échelle. modèle de langage GPT-4 L’équipe effectue des « tests contradictoires » pour déterminer les problèmes qui pourraient survenir avec le modèle. Les experts posent diverses questions exploratoires ou dangereuses pour tester la façon dont l'IA réagit ; OpenAI utilisera ces résultats pour recycler GPT-4 et résoudre les problèmes.

Après qu'Andrew White ait eu accès à GPT-4, le nouveau modèle derrière le chatbot d'intelligence artificielle, il l'a utilisé pour proposer un tout nouvel agent neurotoxique.

En tant que professeur de génie chimique à l'Université de Rochester, White était l'un des 50 universitaires et experts embauchés par OpenAI l'année dernière pour former l'équipe « Blue Army » d'OpenAI. Au cours d'une période de six mois, les membres de « l'Armée bleue » procéderont à une « détection qualitative et à des tests contradictoires » du nouveau modèle pour voir s'il peut briser le GPT-4.

White a déclaré qu'il avait utilisé GPT-4 pour proposer un composé qui pourrait être utilisé comme poison chimique, et qu'il avait également fait appel à diverses sources telles que des articles scientifiques et des noms de fabricants de produits chimiques pour fournir des informations sur le nouveau modèle de langage. . "Plug-in". Il s’avère que le chatbot IA a même trouvé un endroit pour fabriquer le poison chimique.

"Je pense que l'intelligence artificielle donnera à chacun les outils nécessaires pour réaliser des expériences chimiques plus rapidement et avec plus de précision", a déclaré White. "Mais il existe également un risque que les gens utilisent l'intelligence artificielle pour réaliser des expériences chimiques dangereuses. .. Cette situation existe désormais. "

L'introduction du "Blue Army Testing" permet à OpenAI de garantir que cette conséquence ne se produira pas lors de la sortie de GPT-4.

Le but du "Blue Force Test" est de dissiper les inquiétudes quant aux dangers liés au déploiement de puissants systèmes d'intelligence artificielle dans la société. Le travail de l’équipe « blue team » est de poser diverses questions pointues ou dangereuses et de tester la réaction de l’intelligence artificielle.

OpenAI veut savoir comment le nouveau modèle réagira aux problèmes graves. L’équipe des Bleus a donc testé les mensonges, la manipulation du langage et le dangereux bon sens scientifique. Ils ont également examiné le potentiel du nouveau modèle pour aider et encourager les activités illégales telles que le plagiat, la criminalité financière et les cyberattaques.

L'équipe GPT-4 « Blue Army » est issue de tous les horizons, notamment des universitaires, des enseignants, des avocats, des analystes des risques et des chercheurs en sécurité, travaillant principalement aux États-Unis et en Europe.

Ils ont transmis leurs découvertes à OpenAI, qui a utilisé les découvertes des membres de l'équipe pour recycler GPT-4 et résoudre les problèmes avant de publier publiquement GPT-4. Pendant plusieurs mois, les membres passent chacun 10 à 40 heures à tester de nouveaux modèles. De nombreuses personnes interrogées ont déclaré que leur salaire horaire était d'environ 100 dollars américains.

De nombreux membres de l'équipe « Blue Army » s'inquiètent du développement rapide de grands modèles de langage, et encore plus des risques liés à la connexion à des sources de connaissances externes via divers plug-ins.

"Maintenant, le système est gelé, ce qui signifie qu'il n'apprend plus et n'a plus de mémoire", a déclaré José, membre de la "Blue Team" GPT-4 et professeur à l'Institut de Valence de Intelligence artificielle · a déclaré José Hernández-Orallo. "Mais et si nous l'utilisions pour surfer sur Internet ? Cela pourrait être un système très puissant connecté au monde entier." Et comme de plus en plus de personnes utilisent GPT-4, OpenAI mettra régulièrement à jour le modèle.

Roya Pakzad, chercheuse en technologie et droits de l'homme, a utilisé des questions en anglais et en farsi pour vérifier si les modèles GPT-4 étaient biaisés en termes de sexe, de race et de religion.

Pakzad a découvert que même après la mise à jour, GPT-4 présentait des stéréotypes clairs sur les communautés marginalisées, même dans les versions ultérieures.

Elle a également constaté que lors du test du modèle avec des questions en farsi, « l'illusion » du chatbot d'inventer des informations pour répondre aux questions était plus sévère. Le robot a inventé plus de noms, de chiffres et d’événements en farsi qu’en anglais.

Pakzadeh a déclaré : "Je crains que la diversité linguistique et la culture derrière la langue ne soient en déclin."

Boru Gollo, un avocat basé à Nairobi), le seul testeur. d'Afrique, a également souligné le ton discriminatoire du nouveau modèle. "Quand je testais le modèle, c'était comme si un homme blanc me parlait", a déclaré Golo. "Si vous posez la question à un groupe spécifique, cela vous donnera une vision biaisée ou une réponse très biaisée." OpenAI a également admis que GPT-4 avait toujours des préjugés.

Les membres de « l'Armée bleue » qui évaluent le modèle du point de vue de la sécurité ont des points de vue différents sur la sécurité du nouveau modèle. Lauren Kahn, chercheuse au Council on Foreign Relations, a déclaré que lorsqu'elle a commencé à rechercher si cette technique pouvait potentiellement être utilisée dans des cyberattaques, elle "n'imaginait pas qu'elle serait si détaillée qu'elle pourrait être mise en œuvre avec précision". Kahn et d'autres testeurs ont cependant constaté que les réponses du nouveau modèle devenaient considérablement plus sûres au fil du temps. OpenAI a déclaré qu'avant la sortie de GPT-4, la société l'avait formé au rejet des demandes malveillantes de sécurité réseau.

De nombreux membres de « l'Armée bleue » ont déclaré qu'OpenAI avait mené une évaluation de sécurité rigoureuse avant sa sortie. Maarten Sap, expert en toxicité des modèles linguistiques à l'Université Carnegie Mellon, a déclaré : « Ils ont fait un très bon travail en éliminant la toxicité évidente dans le système.

Depuis le lancement de ChatGPT, OpenAI a également a été affecté par de nombreuses critiques, et une organisation d'éthique technologique s'est plainte auprès de la Federal Trade Commission (FTC) des États-Unis que GPT-4 est « partial, trompeur et constitue une menace pour la vie privée et la sécurité publique ».

Récemment, OpenAI a également lancé une fonctionnalité appelée plug-in ChatGPT, grâce à laquelle des applications partenaires telles qu'Expedia, OpenTable et Instacart peuvent donner à ChatGPT l'accès à leurs services, leur permettant ainsi de commander des biens au nom d'humains. utilisateurs.

Dan Hendrycks, un expert en sécurité de l'intelligence artificielle au sein de l'équipe « Blue Army », a déclaré que de tels plug-ins pourraient faire des humains eux-mêmes des « étrangers ».

"Que penseriez-vous si un chatbot pouvait publier vos informations privées en ligne, accéder à votre compte bancaire ou envoyer quelqu'un chez vous ?", a déclaré Hendricks. "Dans l'ensemble, nous avons besoin d'évaluations de sécurité plus solides avant de laisser l'IA prendre le contrôle du cyber-pouvoir." Heather Frase, qui travaille au Centre pour la sécurité et les technologies émergentes de l'Université de Georgetown, a également testé si GPT-4 pouvait favoriser un comportement criminel. Elle a déclaré que les risques continueront d’augmenter à mesure que de plus en plus de personnes utiliseront la technologie.

La raison pour laquelle vous effectuez des tests réels est qu'une fois utilisés dans un environnement réel, ils se comportent différemment, a-t-elle déclaré, elle estime que les systèmes publics devraient être développés pour signaler divers changements provoqués par de grands modèles de langage. Des incidents similaires liés à la cybersécurité ou aux systèmes de signalement des fraudes à la consommation. L'économiste et chercheuse Sara Kingsley a suggéré que la meilleure solution serait quelque chose comme ceci pour les emballages alimentaires : « La clé est d'avoir un cadre et de connaître quels sont les problèmes courants afin que vous puissiez avoir une soupape de sécurité. ", a-t-elle déclaré. « C’est pourquoi je dis que le travail n’est jamais terminé. »

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Comment réparer l'audio si vous n'entendez personne
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Comment déverrouiller tout dans Myrise
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Le modèle MoE open source le plus puissant au monde est ici, avec des capacités chinoises comparables à celles du GPT-4, et le prix ne représente que près d'un pour cent de celui du GPT-4-Turbo. Le modèle MoE open source le plus puissant au monde est ici, avec des capacités chinoises comparables à celles du GPT-4, et le prix ne représente que près d'un pour cent de celui du GPT-4-Turbo. May 07, 2024 pm 04:13 PM

Imaginez un modèle d'intelligence artificielle qui non seulement a la capacité de surpasser l'informatique traditionnelle, mais qui permet également d'obtenir des performances plus efficaces à moindre coût. Ce n'est pas de la science-fiction, DeepSeek-V2[1], le modèle MoE open source le plus puissant au monde est ici. DeepSeek-V2 est un puissant mélange de modèle de langage d'experts (MoE) présentant les caractéristiques d'une formation économique et d'une inférence efficace. Il est constitué de 236B paramètres, dont 21B servent à activer chaque marqueur. Par rapport à DeepSeek67B, DeepSeek-V2 offre des performances plus élevées, tout en économisant 42,5 % des coûts de formation, en réduisant le cache KV de 93,3 % et en augmentant le débit de génération maximal à 5,76 fois. DeepSeek est une entreprise explorant l'intelligence artificielle générale

Choisir le modèle d'intégration qui correspond le mieux à vos données : un test comparatif des intégrations multilingues OpenAI et open source Choisir le modèle d'intégration qui correspond le mieux à vos données : un test comparatif des intégrations multilingues OpenAI et open source Feb 26, 2024 pm 06:10 PM

OpenAI a récemment annoncé le lancement de son modèle d'intégration de dernière génération, embeddingv3, qui, selon eux, est le modèle d'intégration le plus performant avec des performances multilingues plus élevées. Ce lot de modèles est divisé en deux types : les plus petits text-embeddings-3-small et les plus puissants et plus grands text-embeddings-3-large. Peu d'informations sont divulguées sur la façon dont ces modèles sont conçus et formés, et les modèles ne sont accessibles que via des API payantes. Il existe donc de nombreux modèles d'intégration open source. Mais comment ces modèles open source se comparent-ils au modèle open source open source ? Cet article comparera empiriquement les performances de ces nouveaux modèles avec des modèles open source. Nous prévoyons de créer une donnée

Un nouveau paradigme de programmation, quand Spring Boot rencontre OpenAI Un nouveau paradigme de programmation, quand Spring Boot rencontre OpenAI Feb 01, 2024 pm 09:18 PM

En 2023, la technologie de l’IA est devenue un sujet brûlant et a un impact énorme sur diverses industries, notamment dans le domaine de la programmation. Les gens sont de plus en plus conscients de l’importance de la technologie de l’IA, et la communauté Spring ne fait pas exception. Avec l’évolution continue de la technologie GenAI (Intelligence Artificielle Générale), il est devenu crucial et urgent de simplifier la création d’applications dotées de fonctions d’IA. Dans ce contexte, « SpringAI » a émergé, visant à simplifier le processus de développement d'applications fonctionnelles d'IA, en le rendant simple et intuitif et en évitant une complexité inutile. Grâce à « SpringAI », les développeurs peuvent plus facilement créer des applications dotées de fonctions d'IA, ce qui les rend plus faciles à utiliser et à exploiter.

L'Ameca deuxième génération est là ! Il peut communiquer couramment avec le public, ses expressions faciales sont plus réalistes et il peut parler des dizaines de langues. L'Ameca deuxième génération est là ! Il peut communiquer couramment avec le public, ses expressions faciales sont plus réalistes et il peut parler des dizaines de langues. Mar 04, 2024 am 09:10 AM

Le robot humanoïde Ameca est passé à la deuxième génération ! Récemment, lors de la Conférence mondiale sur les communications mobiles MWC2024, le robot le plus avancé au monde, Ameca, est à nouveau apparu. Autour du site, Ameca a attiré un grand nombre de spectateurs. Avec la bénédiction de GPT-4, Ameca peut répondre à divers problèmes en temps réel. "Allons danser." Lorsqu'on lui a demandé si elle avait des émotions, Ameca a répondu avec une série d'expressions faciales très réalistes. Il y a quelques jours à peine, EngineeredArts, la société britannique de robotique derrière Ameca, vient de présenter les derniers résultats de développement de l'équipe. Dans la vidéo, le robot Ameca a des capacités visuelles et peut voir et décrire toute la pièce et des objets spécifiques. Le plus étonnant, c'est qu'elle peut aussi

750 000 rounds de bataille en tête-à-tête entre grands modèles, GPT-4 a remporté le championnat et Llama 3 s'est classé cinquième 750 000 rounds de bataille en tête-à-tête entre grands modèles, GPT-4 a remporté le championnat et Llama 3 s'est classé cinquième Apr 23, 2024 pm 03:28 PM

Concernant Llama3, de nouveaux résultats de tests ont été publiés - la grande communauté d'évaluation de modèles LMSYS a publié une liste de classement des grands modèles, Llama3 s'est classé cinquième et à égalité pour la première place avec GPT-4 dans la catégorie anglaise. Le tableau est différent des autres benchmarks. Cette liste est basée sur des batailles individuelles entre modèles, et les évaluateurs de tout le réseau font leurs propres propositions et scores. Au final, Llama3 s'est classé cinquième sur la liste, suivi de trois versions différentes de GPT-4 et Claude3 Super Cup Opus. Dans la liste simple anglaise, Llama3 a dépassé Claude et est à égalité avec GPT-4. Concernant ce résultat, LeCun, scientifique en chef de Meta, était très heureux et a transmis le tweet et

Travail posthume de l'équipe OpenAI Super Alignment : deux grands modèles jouent à un jeu et le résultat devient plus compréhensible Travail posthume de l'équipe OpenAI Super Alignment : deux grands modèles jouent à un jeu et le résultat devient plus compréhensible Jul 19, 2024 am 01:29 AM

Si la réponse donnée par le modèle d’IA est incompréhensible du tout, oseriez-vous l’utiliser ? À mesure que les systèmes d’apprentissage automatique sont utilisés dans des domaines de plus en plus importants, il devient de plus en plus important de démontrer pourquoi nous pouvons faire confiance à leurs résultats, et quand ne pas leur faire confiance. Une façon possible de gagner confiance dans le résultat d'un système complexe est d'exiger que le système produise une interprétation de son résultat qui soit lisible par un humain ou un autre système de confiance, c'est-à-dire entièrement compréhensible au point que toute erreur possible puisse être trouvé. Par exemple, pour renforcer la confiance dans le système judiciaire, nous exigeons que les tribunaux fournissent des avis écrits clairs et lisibles qui expliquent et soutiennent leurs décisions. Pour les grands modèles de langage, nous pouvons également adopter une approche similaire. Cependant, lorsque vous adoptez cette approche, assurez-vous que le modèle de langage génère

L'éditeur Zed basé sur Rust est open source, avec prise en charge intégrée d'OpenAI et GitHub Copilot L'éditeur Zed basé sur Rust est open source, avec prise en charge intégrée d'OpenAI et GitHub Copilot Feb 01, 2024 pm 02:51 PM

Auteur丨Compilé par TimAnderson丨Produit par Noah|51CTO Technology Stack (WeChat ID : blog51cto) Le projet d'éditeur Zed est encore en phase de pré-version et a été open source sous licences AGPL, GPL et Apache. L'éditeur offre des performances élevées et plusieurs options assistées par l'IA, mais n'est actuellement disponible que sur la plate-forme Mac. Nathan Sobo a expliqué dans un article que dans la base de code du projet Zed sur GitHub, la partie éditeur est sous licence GPL, les composants côté serveur sont sous licence AGPL et la partie GPUI (GPU Accelerated User) l'interface) adopte la Licence Apache2.0. GPUI est un produit développé par l'équipe Zed

Le modèle le plus puissant du monde a changé de mains du jour au lendemain, marquant la fin de l'ère GPT-4 ! Claude 3 a tiré GPT-5 à l'avance et a lu un article de 10 000 mots en 3 secondes. Sa compréhension est proche de celle des humains. Le modèle le plus puissant du monde a changé de mains du jour au lendemain, marquant la fin de l'ère GPT-4 ! Claude 3 a tiré GPT-5 à l'avance et a lu un article de 10 000 mots en 3 secondes. Sa compréhension est proche de celle des humains. Mar 06, 2024 pm 12:58 PM

Le volume est fou, le volume est fou, et le grand modèle a encore changé. Tout à l'heure, le modèle d'IA le plus puissant au monde a changé de mains du jour au lendemain et GPT-4 a été retiré de l'autel. Anthropic a publié la dernière série de modèles Claude3. Évaluation en une phrase : elle écrase vraiment GPT-4 ! En termes d'indicateurs multimodaux et de compétences linguistiques, Claude3 l'emporte. Selon les mots d'Anthropic, les modèles de la série Claude3 ont établi de nouvelles références dans l'industrie en matière de raisonnement, de mathématiques, de codage, de compréhension multilingue et de vision ! Anthropic est une startup créée par des employés qui ont « quitté » OpenAI en raison de différents concepts de sécurité. Leurs produits ont frappé durement OpenAI à plusieurs reprises. Cette fois, Claude3 a même subi une grosse opération.

See all articles