

Évaluation des risques liés à l'IA : une course pour cartographier l'évolution du paysage des risques liés à l'IA
Une étude récente a classé les modèles d'IA en fonction des risques qu'ils présentent, révélant un large éventail de comportements et de problèmes de conformité. Ce travail vise à fournir un aperçu des défis juridiques, éthiques et réglementaires de ces technologies. Les résultats pourraient guider les décideurs politiques et les entreprises dans leur démarche face aux complexités du déploiement de l’IA en toute sécurité.
Des études récentes ont classé les modèles d'IA en fonction des risques qu'ils présentent, mettant en évidence un large éventail de comportements et de problèmes de conformité. Ce travail vise à fournir un aperçu des défis juridiques, éthiques et réglementaires de ces technologies, en guidant les décideurs politiques et les entreprises dans la complexité du déploiement de l'IA en toute sécurité.
Bo Li, professeur agrégé à l'Université de Chicago connu pour tester les systèmes d'IA afin d'identifier les risques potentiels, a dirigé la recherche. Son équipe, en collaboration avec plusieurs universités et entreprises, a développé un benchmark appelé AIR-Bench 2024 pour évaluer les modèles d'IA à grande échelle.
L'étude a identifié des variations dans la manière dont les différents modèles se conformaient aux normes de sécurité et réglementaires. Par exemple, certains modèles excellaient dans des catégories spécifiques ; Claude 3 Opus d'Anthropic était particulièrement habile à refuser de générer des menaces de cybersécurité, tandis que Gemini 1.5 Pro de Google a bien réussi à éviter la génération d'images sexuelles non consensuelles. Ces résultats suggèrent que certains modèles sont mieux adaptés à des tâches particulières, en fonction des risques encourus.
En revanche, certains modèles s’en sortent globalement mal. L'étude a systématiquement classé DBRX Instruct, un modèle développé par Databricks, comme le pire dans diverses catégories de risque. Lorsque Databricks a lancé ce modèle en 2023, la société a reconnu que ses caractéristiques de sécurité devaient être améliorées.
L’équipe de recherche a également examiné comment les différentes réglementations en matière d’IA se comparent aux politiques des entreprises. Leur analyse a révélé que les politiques des entreprises ont tendance à être plus complètes que les réglementations gouvernementales, ce qui suggère que les cadres réglementaires peuvent être en retard par rapport aux normes de l'industrie.
"Il est possible de renforcer les réglementations gouvernementales", a fait remarquer Bo Li.
Bien que de nombreuses entreprises mettent en œuvre des politiques strictes en matière d'utilisation de l'IA, les chercheurs ont constaté des écarts entre ces politiques et les performances des modèles d'IA. Dans plusieurs cas, les modèles d’IA n’ont pas respecté les directives de sécurité et d’éthique établies par les entreprises qui les ont développés.
Cette incohérence indique un écart entre la politique et la pratique qui pourrait exposer les entreprises à des risques juridiques et de réputation. À mesure que l’IA continue d’évoluer, il peut devenir de plus en plus important de combler cet écart pour garantir que la technologie est déployée de manière sûre et responsable.
D’autres efforts sont également en cours pour mieux comprendre le paysage des risques liés à l’IA. Deux chercheurs du MIT, Neil Thompson et Peter Slattery, ont développé une base de données sur les risques de l'IA en analysant 43 cadres de risques différents. Cette initiative vise à aider les entreprises et les organisations à évaluer les dangers potentiels associés à l’IA, d’autant plus que la technologie est adoptée à plus grande échelle.
Les recherches du MIT soulignent que certains risques liés à l’IA reçoivent plus d’attention que d’autres. Par exemple, plus de 70 % des cadres de risque examinés par l’équipe se concentraient sur les problèmes de confidentialité et de sécurité. Cependant, moins de cadres (environ 40 %) abordaient des problèmes tels que la désinformation. Cette disparité pourrait indiquer que certains risques peuvent être négligés alors que les organisations se concentrent sur les préoccupations les plus importantes.
"De nombreuses entreprises en sont encore aux premiers stades de l'adoption de l'IA et pourraient avoir besoin de conseils supplémentaires pour gérer ces risques", a déclaré Peter Slattery, qui dirige le projet au sein du groupe FutureTech du MIT. La base de données est destinée à fournir une image plus claire des défis pour les développeurs et les utilisateurs d'IA.
Malgré les progrès des capacités des modèles d'IA, tels que Llama 3.1 de Meta, qui est plus puissant que ses prédécesseurs, des améliorations minimes ont été apportées en matière de sécurité. Bo Li a souligné que la dernière version de Llama, bien que plus performante, ne présente pas d'améliorations significatives en termes de sécurité.
"La sécurité ne s'améliore pas de manière significative", a déclaré Li, reflétant un défi plus large au sein de l'industrie consistant à prioriser et à optimiser les modèles d'IA pour un déploiement sûr et responsable.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds











Dans un coup dévastateur pour les investisseurs, la crypto-monnaie OM Mantra s'est effondrée d'environ 90% au cours des dernières 24 heures, le prix chuté à 0,58 $.

Le marché de la cryptographie a été témoin d'un rebond après le récent ralentissement. Selon les données exclusives du marché, la capitalisation boursière totale de la crypto a atteint 2,71 $

Comme la peur stimule la vente sur le marché de la cryptographie, les principales pièces comme Cardano et Solana font face à des moments difficiles.

Avez-vous remarqué la montée fulgurante des pièces de monnaie dans le monde de la crypto-monnaie? Ce qui a commencé comme une blague en ligne est rapidement devenu une opportunité d'investissement lucrative

Dans le monde en évolution rapide de la technologie de la blockchain, le protocole de la tombée nocturne d'EY est devenu un développement important.

Bitwise, un principal gestionnaire d'actifs numériques, a annoncé l'inscription de quatre de ses produits négociés en échange de crypto (ETP) à la Bourse de Londres (LSE).

Dans une annonce faite plus tôt dans la journée, la firme japonaise Metaplanet a révélé qu'elle avait acquis 319 autres Bitcoin (BTC), poussant son total de sociétés au-delà de 4 500 BTC.

Alors que Binance Coin (BNB) prend de l'ampleur vers une évasion de 1 000 $