Maison > web3.0 > le corps du texte

Évaluation des risques liés à l'IA : une course pour cartographier l'évolution du paysage des risques liés à l'IA

WBOY
Libérer: 2024-08-16 18:11:14
original
731 Les gens l'ont consulté

Une étude récente a classé les modèles d'IA en fonction des risques qu'ils présentent, révélant un large éventail de comportements et de problèmes de conformité. Ce travail vise à fournir un aperçu des défis juridiques, éthiques et réglementaires de ces technologies. Les résultats pourraient guider les décideurs politiques et les entreprises dans leur démarche face aux complexités du déploiement de l’IA en toute sécurité.

Évaluation des risques liés à l'IA : une course pour cartographier l'évolution du paysage des risques liés à l'IA

Des études récentes ont classé les modèles d'IA en fonction des risques qu'ils présentent, mettant en évidence un large éventail de comportements et de problèmes de conformité. Ce travail vise à fournir un aperçu des défis juridiques, éthiques et réglementaires de ces technologies, en guidant les décideurs politiques et les entreprises dans la complexité du déploiement de l'IA en toute sécurité.

Bo Li, professeur agrégé à l'Université de Chicago connu pour tester les systèmes d'IA afin d'identifier les risques potentiels, a dirigé la recherche. Son équipe, en collaboration avec plusieurs universités et entreprises, a développé un benchmark appelé AIR-Bench 2024 pour évaluer les modèles d'IA à grande échelle.

L'étude a identifié des variations dans la manière dont les différents modèles se conformaient aux normes de sécurité et réglementaires. Par exemple, certains modèles excellaient dans des catégories spécifiques ; Claude 3 Opus d'Anthropic était particulièrement habile à refuser de générer des menaces de cybersécurité, tandis que Gemini 1.5 Pro de Google a bien réussi à éviter la génération d'images sexuelles non consensuelles. Ces résultats suggèrent que certains modèles sont mieux adaptés à des tâches particulières, en fonction des risques encourus.

En revanche, certains modèles s’en sortent globalement mal. L'étude a systématiquement classé DBRX Instruct, un modèle développé par Databricks, comme le pire dans diverses catégories de risque. Lorsque Databricks a lancé ce modèle en 2023, la société a reconnu que ses caractéristiques de sécurité devaient être améliorées.

L’équipe de recherche a également examiné comment les différentes réglementations en matière d’IA se comparent aux politiques des entreprises. Leur analyse a révélé que les politiques des entreprises ont tendance à être plus complètes que les réglementations gouvernementales, ce qui suggère que les cadres réglementaires peuvent être en retard par rapport aux normes de l'industrie.

"Il est possible de renforcer les réglementations gouvernementales", a fait remarquer Bo Li.

Bien que de nombreuses entreprises mettent en œuvre des politiques strictes en matière d'utilisation de l'IA, les chercheurs ont constaté des écarts entre ces politiques et les performances des modèles d'IA. Dans plusieurs cas, les modèles d’IA n’ont pas respecté les directives de sécurité et d’éthique établies par les entreprises qui les ont développés.

Cette incohérence indique un écart entre la politique et la pratique qui pourrait exposer les entreprises à des risques juridiques et de réputation. À mesure que l’IA continue d’évoluer, il peut devenir de plus en plus important de combler cet écart pour garantir que la technologie est déployée de manière sûre et responsable.

D’autres efforts sont également en cours pour mieux comprendre le paysage des risques liés à l’IA. Deux chercheurs du MIT, Neil Thompson et Peter Slattery, ont développé une base de données sur les risques de l'IA en analysant 43 cadres de risques différents. Cette initiative vise à aider les entreprises et les organisations à évaluer les dangers potentiels associés à l’IA, d’autant plus que la technologie est adoptée à plus grande échelle.

Les recherches du MIT soulignent que certains risques liés à l’IA reçoivent plus d’attention que d’autres. Par exemple, plus de 70 % des cadres de risque examinés par l’équipe se concentraient sur les problèmes de confidentialité et de sécurité. Cependant, moins de cadres (environ 40 %) abordaient des problèmes tels que la désinformation. Cette disparité pourrait indiquer que certains risques peuvent être négligés alors que les organisations se concentrent sur les préoccupations les plus importantes.

"De nombreuses entreprises en sont encore aux premiers stades de l'adoption de l'IA et pourraient avoir besoin de conseils supplémentaires pour gérer ces risques", a déclaré Peter Slattery, qui dirige le projet au sein du groupe FutureTech du MIT. La base de données est destinée à fournir une image plus claire des défis pour les développeurs et les utilisateurs d'IA.

Malgré les progrès des capacités des modèles d'IA, tels que Llama 3.1 de Meta, qui est plus puissant que ses prédécesseurs, des améliorations minimes ont été apportées en matière de sécurité. Bo Li a souligné que la dernière version de Llama, bien que plus performante, ne présente pas d'améliorations significatives en termes de sécurité.

"La sécurité ne s'améliore pas de manière significative", a déclaré Li, reflétant un défi plus large au sein de l'industrie consistant à prioriser et à optimiser les modèles d'IA pour un déploiement sûr et responsable.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:php.cn
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal