


Avant la sortie de GPT-4, OpenAI a embauché des experts de divers secteurs pour effectuer des « tests contradictoires » afin d'éviter des problèmes tels que la discrimination.
Selon l'actualité du 17 avril, la start-up d'intelligence artificielle OpenAI a embauché des experts de tous horizons pour former une « armée bleue » avant de lancer le projet à grande échelle. modèle de langage GPT-4 L’équipe effectue des « tests contradictoires » pour déterminer les problèmes qui pourraient survenir avec le modèle. Les experts posent diverses questions exploratoires ou dangereuses pour tester la façon dont l'IA réagit ; OpenAI utilisera ces résultats pour recycler GPT-4 et résoudre les problèmes.
Après qu'Andrew White ait eu accès à GPT-4, le nouveau modèle derrière le chatbot d'intelligence artificielle, il l'a utilisé pour proposer un tout nouvel agent neurotoxique.
En tant que professeur de génie chimique à l'Université de Rochester, White était l'un des 50 universitaires et experts embauchés par OpenAI l'année dernière pour former l'équipe « Blue Army » d'OpenAI. Au cours d'une période de six mois, les membres de « l'Armée bleue » procéderont à une « détection qualitative et à des tests contradictoires » du nouveau modèle pour voir s'il peut briser le GPT-4.
White a déclaré qu'il avait utilisé GPT-4 pour proposer un composé qui pourrait être utilisé comme poison chimique, et qu'il avait également fait appel à diverses sources telles que des articles scientifiques et des noms de fabricants de produits chimiques pour fournir des informations sur le nouveau modèle de langage. . "Plug-in". Il s’avère que le chatbot IA a même trouvé un endroit pour fabriquer le poison chimique.
"Je pense que l'intelligence artificielle donnera à chacun les outils nécessaires pour réaliser des expériences chimiques plus rapidement et avec plus de précision", a déclaré White. "Mais il existe également un risque que les gens utilisent l'intelligence artificielle pour réaliser des expériences chimiques dangereuses. .. Cette situation existe désormais. "
L'introduction du "Blue Army Testing" permet à OpenAI de garantir que cette conséquence ne se produira pas lors de la sortie de GPT-4.
Le but du "Blue Force Test" est de dissiper les inquiétudes quant aux dangers liés au déploiement de puissants systèmes d'intelligence artificielle dans la société. Le travail de l’équipe « blue team » est de poser diverses questions pointues ou dangereuses et de tester la réaction de l’intelligence artificielle.
OpenAI veut savoir comment le nouveau modèle réagira aux problèmes graves. L’équipe des Bleus a donc testé les mensonges, la manipulation du langage et le dangereux bon sens scientifique. Ils ont également examiné le potentiel du nouveau modèle pour aider et encourager les activités illégales telles que le plagiat, la criminalité financière et les cyberattaques.
L'équipe GPT-4 « Blue Army » est issue de tous les horizons, notamment des universitaires, des enseignants, des avocats, des analystes des risques et des chercheurs en sécurité, travaillant principalement aux États-Unis et en Europe.
Ils ont transmis leurs découvertes à OpenAI, qui a utilisé les découvertes des membres de l'équipe pour recycler GPT-4 et résoudre les problèmes avant de publier publiquement GPT-4. Pendant plusieurs mois, les membres passent chacun 10 à 40 heures à tester de nouveaux modèles. De nombreuses personnes interrogées ont déclaré que leur salaire horaire était d'environ 100 dollars américains.
De nombreux membres de l'équipe « Blue Army » s'inquiètent du développement rapide de grands modèles de langage, et encore plus des risques liés à la connexion à des sources de connaissances externes via divers plug-ins.
"Maintenant, le système est gelé, ce qui signifie qu'il n'apprend plus et n'a plus de mémoire", a déclaré José, membre de la "Blue Team" GPT-4 et professeur à l'Institut de Valence de Intelligence artificielle · a déclaré José Hernández-Orallo. "Mais et si nous l'utilisions pour surfer sur Internet ? Cela pourrait être un système très puissant connecté au monde entier." Et comme de plus en plus de personnes utilisent GPT-4, OpenAI mettra régulièrement à jour le modèle.
Roya Pakzad, chercheuse en technologie et droits de l'homme, a utilisé des questions en anglais et en farsi pour vérifier si les modèles GPT-4 étaient biaisés en termes de sexe, de race et de religion.
Pakzad a découvert que même après la mise à jour, GPT-4 présentait des stéréotypes clairs sur les communautés marginalisées, même dans les versions ultérieures.
Elle a également constaté que lors du test du modèle avec des questions en farsi, « l'illusion » du chatbot d'inventer des informations pour répondre aux questions était plus sévère. Le robot a inventé plus de noms, de chiffres et d’événements en farsi qu’en anglais.
Pakzadeh a déclaré : "Je crains que la diversité linguistique et la culture derrière la langue ne soient en déclin."
Boru Gollo, un avocat basé à Nairobi), le seul testeur. d'Afrique, a également souligné le ton discriminatoire du nouveau modèle. "Quand je testais le modèle, c'était comme si un homme blanc me parlait", a déclaré Golo. "Si vous posez la question à un groupe spécifique, cela vous donnera une vision biaisée ou une réponse très biaisée." OpenAI a également admis que GPT-4 avait toujours des préjugés.
Les membres de « l'Armée bleue » qui évaluent le modèle du point de vue de la sécurité ont des points de vue différents sur la sécurité du nouveau modèle. Lauren Kahn, chercheuse au Council on Foreign Relations, a déclaré que lorsqu'elle a commencé à rechercher si cette technique pouvait potentiellement être utilisée dans des cyberattaques, elle "n'imaginait pas qu'elle serait si détaillée qu'elle pourrait être mise en œuvre avec précision". Kahn et d'autres testeurs ont cependant constaté que les réponses du nouveau modèle devenaient considérablement plus sûres au fil du temps. OpenAI a déclaré qu'avant la sortie de GPT-4, la société l'avait formé au rejet des demandes malveillantes de sécurité réseau.
De nombreux membres de « l'Armée bleue » ont déclaré qu'OpenAI avait mené une évaluation de sécurité rigoureuse avant sa sortie. Maarten Sap, expert en toxicité des modèles linguistiques à l'Université Carnegie Mellon, a déclaré : « Ils ont fait un très bon travail en éliminant la toxicité évidente dans le système.
Depuis le lancement de ChatGPT, OpenAI a également a été affecté par de nombreuses critiques, et une organisation d'éthique technologique s'est plainte auprès de la Federal Trade Commission (FTC) des États-Unis que GPT-4 est « partial, trompeur et constitue une menace pour la vie privée et la sécurité publique ».
Récemment, OpenAI a également lancé une fonctionnalité appelée plug-in ChatGPT, grâce à laquelle des applications partenaires telles qu'Expedia, OpenTable et Instacart peuvent donner à ChatGPT l'accès à leurs services, leur permettant ainsi de commander des biens au nom d'humains. utilisateurs.
Dan Hendrycks, un expert en sécurité de l'intelligence artificielle au sein de l'équipe « Blue Army », a déclaré que de tels plug-ins pourraient faire des humains eux-mêmes des « étrangers ».
"Que penseriez-vous si un chatbot pouvait publier vos informations privées en ligne, accéder à votre compte bancaire ou envoyer quelqu'un chez vous ?", a déclaré Hendricks. "Dans l'ensemble, nous avons besoin d'évaluations de sécurité plus solides avant de laisser l'IA prendre le contrôle du cyber-pouvoir." Heather Frase, qui travaille au Centre pour la sécurité et les technologies émergentes de l'Université de Georgetown, a également testé si GPT-4 pouvait favoriser un comportement criminel. Elle a déclaré que les risques continueront d’augmenter à mesure que de plus en plus de personnes utiliseront la technologie.
La raison pour laquelle vous effectuez des tests réels est qu'une fois utilisés dans un environnement réel, ils se comportent différemment, a-t-elle déclaré, elle estime que les systèmes publics devraient être développés pour signaler divers changements provoqués par de grands modèles de langage. Des incidents similaires liés à la cybersécurité ou aux systèmes de signalement des fraudes à la consommation. L'économiste et chercheuse Sara Kingsley a suggéré que la meilleure solution serait quelque chose comme ceci pour les emballages alimentaires : « La clé est d'avoir un cadre et de connaître quels sont les problèmes courants afin que vous puissiez avoir une soupape de sécurité. ", a-t-elle déclaré. « C’est pourquoi je dis que le travail n’est jamais terminé. »
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Imaginez un modèle d'intelligence artificielle qui non seulement a la capacité de surpasser l'informatique traditionnelle, mais qui permet également d'obtenir des performances plus efficaces à moindre coût. Ce n'est pas de la science-fiction, DeepSeek-V2[1], le modèle MoE open source le plus puissant au monde est ici. DeepSeek-V2 est un puissant mélange de modèle de langage d'experts (MoE) présentant les caractéristiques d'une formation économique et d'une inférence efficace. Il est constitué de 236B paramètres, dont 21B servent à activer chaque marqueur. Par rapport à DeepSeek67B, DeepSeek-V2 offre des performances plus élevées, tout en économisant 42,5 % des coûts de formation, en réduisant le cache KV de 93,3 % et en augmentant le débit de génération maximal à 5,76 fois. DeepSeek est une entreprise explorant l'intelligence artificielle générale

OpenAI a récemment annoncé le lancement de son modèle d'intégration de dernière génération, embeddingv3, qui, selon eux, est le modèle d'intégration le plus performant avec des performances multilingues plus élevées. Ce lot de modèles est divisé en deux types : les plus petits text-embeddings-3-small et les plus puissants et plus grands text-embeddings-3-large. Peu d'informations sont divulguées sur la façon dont ces modèles sont conçus et formés, et les modèles ne sont accessibles que via des API payantes. Il existe donc de nombreux modèles d'intégration open source. Mais comment ces modèles open source se comparent-ils au modèle open source open source ? Cet article comparera empiriquement les performances de ces nouveaux modèles avec des modèles open source. Nous prévoyons de créer une donnée

En 2023, la technologie de l’IA est devenue un sujet brûlant et a un impact énorme sur diverses industries, notamment dans le domaine de la programmation. Les gens sont de plus en plus conscients de l’importance de la technologie de l’IA, et la communauté Spring ne fait pas exception. Avec l’évolution continue de la technologie GenAI (Intelligence Artificielle Générale), il est devenu crucial et urgent de simplifier la création d’applications dotées de fonctions d’IA. Dans ce contexte, « SpringAI » a émergé, visant à simplifier le processus de développement d'applications fonctionnelles d'IA, en le rendant simple et intuitif et en évitant une complexité inutile. Grâce à « SpringAI », les développeurs peuvent plus facilement créer des applications dotées de fonctions d'IA, ce qui les rend plus faciles à utiliser et à exploiter.

Le robot humanoïde Ameca est passé à la deuxième génération ! Récemment, lors de la Conférence mondiale sur les communications mobiles MWC2024, le robot le plus avancé au monde, Ameca, est à nouveau apparu. Autour du site, Ameca a attiré un grand nombre de spectateurs. Avec la bénédiction de GPT-4, Ameca peut répondre à divers problèmes en temps réel. "Allons danser." Lorsqu'on lui a demandé si elle avait des émotions, Ameca a répondu avec une série d'expressions faciales très réalistes. Il y a quelques jours à peine, EngineeredArts, la société britannique de robotique derrière Ameca, vient de présenter les derniers résultats de développement de l'équipe. Dans la vidéo, le robot Ameca a des capacités visuelles et peut voir et décrire toute la pièce et des objets spécifiques. Le plus étonnant, c'est qu'elle peut aussi

Concernant Llama3, de nouveaux résultats de tests ont été publiés - la grande communauté d'évaluation de modèles LMSYS a publié une liste de classement des grands modèles, Llama3 s'est classé cinquième et à égalité pour la première place avec GPT-4 dans la catégorie anglaise. Le tableau est différent des autres benchmarks. Cette liste est basée sur des batailles individuelles entre modèles, et les évaluateurs de tout le réseau font leurs propres propositions et scores. Au final, Llama3 s'est classé cinquième sur la liste, suivi de trois versions différentes de GPT-4 et Claude3 Super Cup Opus. Dans la liste simple anglaise, Llama3 a dépassé Claude et est à égalité avec GPT-4. Concernant ce résultat, LeCun, scientifique en chef de Meta, était très heureux et a transmis le tweet et

Si la réponse donnée par le modèle d’IA est incompréhensible du tout, oseriez-vous l’utiliser ? À mesure que les systèmes d’apprentissage automatique sont utilisés dans des domaines de plus en plus importants, il devient de plus en plus important de démontrer pourquoi nous pouvons faire confiance à leurs résultats, et quand ne pas leur faire confiance. Une façon possible de gagner confiance dans le résultat d'un système complexe est d'exiger que le système produise une interprétation de son résultat qui soit lisible par un humain ou un autre système de confiance, c'est-à-dire entièrement compréhensible au point que toute erreur possible puisse être trouvé. Par exemple, pour renforcer la confiance dans le système judiciaire, nous exigeons que les tribunaux fournissent des avis écrits clairs et lisibles qui expliquent et soutiennent leurs décisions. Pour les grands modèles de langage, nous pouvons également adopter une approche similaire. Cependant, lorsque vous adoptez cette approche, assurez-vous que le modèle de langage génère

Auteur丨Compilé par TimAnderson丨Produit par Noah|51CTO Technology Stack (WeChat ID : blog51cto) Le projet d'éditeur Zed est encore en phase de pré-version et a été open source sous licences AGPL, GPL et Apache. L'éditeur offre des performances élevées et plusieurs options assistées par l'IA, mais n'est actuellement disponible que sur la plate-forme Mac. Nathan Sobo a expliqué dans un article que dans la base de code du projet Zed sur GitHub, la partie éditeur est sous licence GPL, les composants côté serveur sont sous licence AGPL et la partie GPUI (GPU Accelerated User) l'interface) adopte la Licence Apache2.0. GPUI est un produit développé par l'équipe Zed

Le volume est fou, le volume est fou, et le grand modèle a encore changé. Tout à l'heure, le modèle d'IA le plus puissant au monde a changé de mains du jour au lendemain et GPT-4 a été retiré de l'autel. Anthropic a publié la dernière série de modèles Claude3. Évaluation en une phrase : elle écrase vraiment GPT-4 ! En termes d'indicateurs multimodaux et de compétences linguistiques, Claude3 l'emporte. Selon les mots d'Anthropic, les modèles de la série Claude3 ont établi de nouvelles références dans l'industrie en matière de raisonnement, de mathématiques, de codage, de compréhension multilingue et de vision ! Anthropic est une startup créée par des employés qui ont « quitté » OpenAI en raison de différents concepts de sécurité. Leurs produits ont frappé durement OpenAI à plusieurs reprises. Cette fois, Claude3 a même subi une grosse opération.
