Le plus grand risque auquel est actuellement confrontée la technologie de l'intelligence artificielle est que la vitesse de développement et d'application des grands modèles de langage (LLM) et de la technologie d'intelligence artificielle générative a largement dépassé la vitesse de la sécurité et de la gouvernance.
L'utilisation de produits d'IA générative et de grands modèles de langage d'entreprises comme OpenAI, Anthropic, Google et Microsoft connaît une croissance exponentielle. Dans le même temps, les solutions open source de grands modèles de langage connaissent également une croissance rapide. Les communautés d'intelligence artificielle open source telles que HuggingFace fournissent un grand nombre de modèles open source, d'ensembles de données et d'applications d'IA.
Afin de promouvoir le développement de l'intelligence artificielle, des organisations industrielles telles que l'OWASP, OpenSSF et CISA développent et fournissent activement des actifs clés pour la sécurité et la gouvernance de l'intelligence artificielle, tels que OWASP AI Exchange, AI Security and Privacy Guide et le Liste des dix principaux risques des grands modèles de langage ( LLMTop10).
Récemment, l'OWASP a publié une vaste liste de contrôle de modèle de langage pour la cybersécurité et la gouvernance, comblant les lacunes dans la gouvernance de la sécurité de l'intelligence artificielle générative. Le contenu spécifique est le suivant :
Le modèle de langage de l'OWASP pour la cybersécurité et la gouvernance. La liste de contrôle définit les différences entre l'intelligence artificielle, l'apprentissage automatique, l'IA générative et les grands modèles de langage.
Par exemple, la définition de l'IA générative de l'OWASP est la suivante : un type d'apprentissage automatique axé sur la création de nouvelles données, tandis que les grands modèles de langage sont un modèle d'IA utilisé pour traiter et générer du « contenu naturel » de type humain. - Ils font des prédictions basées sur l’entrée qui leur est fournie, et la sortie est un « contenu naturel » semblable à celui d’un être humain.
Concernant la « Liste des dix principales menaces du Big Language Model », l'OWASP estime qu'elle peut aider les praticiens de la cybersécurité à suivre le développement rapide de la technologie de l'IA, à identifier les menaces clés et à garantir que les entreprises disposent de contrôles de sécurité de base pour protéger et prendre en charge l'utilisation. métier de l’intelligence artificielle générative et des grands modèles de langage. L’OWASP estime cependant que cette liste n’est pas exhaustive et doit être continuellement améliorée en fonction du développement de l’intelligence artificielle générative.
Le déploiement de la stratégie de gouvernance de la sécurité du grand modèle de langage de l'OWASP est divisé en six étapes :
Le risque d'adversaire des grands modèles de langage implique non seulement les concurrents, mais également les attaquants. Il se concentre non seulement sur la posture d'attaque, mais aussi sur la posture de l'entreprise. Cela implique de comprendre comment les concurrents utilisent l'IA pour générer des résultats commerciaux, ainsi que de mettre à jour les processus et politiques internes, tels que les plans de réponse aux incidents (IRP), pour répondre aux attaques et incidents génératifs d'IA.
La modélisation des menaces est une technologie de sécurité de plus en plus populaire, qui attire de plus en plus d'attention avec la promotion du concept de systèmes de conception sécurisés, et a été approuvée par la Cybersecurity and Infrastructure Security Agency (CISA) des États-Unis et d'autres organisations faisant autorité. La modélisation des menaces nécessite de réfléchir à la manière dont les attaquants exploitent les grands modèles de langage et l'IA générative pour accélérer l'exploitation des vulnérabilités, à la capacité de l'entreprise à détecter les grands modèles de langage malveillants et à la question de savoir si les organisations peuvent protéger les grands modèles de langage et les plates-formes d'IA générative des systèmes et environnements internes.
L'adage « Vous ne pouvez pas protéger un actif inconnu » s'applique également aux domaines de l'IA générative et des grands modèles de langage. Cette partie de l'inventaire OWASP implique l'inventaire des actifs d'IA pour les solutions d'IA développées en interne ainsi que pour les outils et plateformes externes.
OWASP souligne que les entreprises doivent non seulement comprendre quels outils et services sont utilisés en interne, mais également comprendre qui en est la propriété, c'est-à-dire qui est responsable de l'utilisation de ces outils et services. La liste de contrôle recommande également d'inclure les composants d'IA dans une nomenclature logicielle (SBOM) et de documenter les sources de données d'IA et leurs sensibilités respectives.
En plus d'inventorier les outils et services d'IA existants, les entreprises doivent également établir un processus sécurisé pour ajouter les futurs outils et services d'IA à l'inventaire.
On dit souvent que « les personnes constituent la plus grande vulnérabilité en matière de sécurité ». Les entreprises ne peuvent que raisonnablement intégrer la formation sur la sécurité et la confidentialité de l'intelligence artificielle dans le processus d'application de leur intelligence artificielle générative et de leur grand langage. modèles, peuvent considérablement atténuer les risques humains.
Cela implique d'aider les employés à comprendre les initiatives existantes en matière d'IA générative/de grands modèles de langage, les technologies et leurs capacités, ainsi que les principales considérations de sécurité telles que les violations de données. De plus, il est essentiel de bâtir une culture de sécurité fondée sur la confiance et la transparence.
Une culture de confiance et de transparence au sein de l'entreprise peut également aider à éviter les menaces de l'IA fantôme, sinon les employés utiliseront « secrètement » l'IA fantôme sans en informer les équipes informatiques et de sécurité.
Tout comme le cloud computing, la plupart des entreprises n'ont pas réellement développé d'analyse de rentabilisation stratégique cohérente pour les nouvelles applications technologiques telles que l'intelligence artificielle générative et les grands modèles de langage, et il est facile de suivre aveuglément la tendance. . Laissez-vous emporter par le battage médiatique. Sans une analyse de rentabilisation solide, les applications d’IA d’entreprise sont susceptibles de produire de mauvais résultats et d’augmenter les risques.
Sans gouvernance, les entreprises ne peuvent pas établir de mécanismes de responsabilisation et d'objectifs clairs pour l'intelligence artificielle. La liste de contrôle de l'OWASP recommande aux entreprises d'élaborer un tableau RACI (matrice d'attribution des responsabilités) pour les applications d'intelligence artificielle, d'enregistrer et d'attribuer les responsabilités en matière de risques et les tâches de gouvernance, et d'établir des politiques et procédures d'intelligence artificielle à l'échelle de l'entreprise.
Avec le développement rapide de la technologie de l'intelligence artificielle, son impact juridique ne peut être sous-estimé et peut entraîner des risques financiers et de réputation importants pour les entreprises.
Les affaires juridiques de l'intelligence artificielle impliquent une série d'activités, telles que la garantie des produits d'intelligence artificielle, le contrat de licence d'utilisateur final (CLUF) d'intelligence artificielle, la propriété du code développé à l'aide d'outils d'intelligence artificielle, les risques de propriété intellectuelle et les clauses de compensation contractuelle, etc. En bref, assurez-vous que votre équipe juridique ou vos experts comprennent les différentes activités juridiques de soutien que votre entreprise doit entreprendre lorsqu'elle utilise l'IA générative et les grands modèles linguistiques.
Les réglementations réglementaires sur l'intelligence artificielle se développent également rapidement, comme la loi européenne sur l'intelligence artificielle, et des réglementations dans d'autres pays et régions seront bientôt introduites. Les entreprises doivent comprendre les exigences de conformité de leur pays en matière d’IA, telles que la surveillance des employés, et comprendre clairement comment leurs fournisseurs d’IA stockent et suppriment les données et réglementent leur utilisation.
L'utilisation de solutions de modèles de langage à grande échelle nécessite la prise en compte de risques et de contrôles spécifiques. La liste de contrôle OWASP répertorie des éléments tels que le contrôle d'accès, la sécurité du pipeline de formation, la cartographie des flux de travail de données et la compréhension des vulnérabilités existantes ou potentielles dans les grands modèles de modèles de langage et les chaînes d'approvisionnement. De plus, des audits tiers, des tests d'intrusion et même des révisions de code des fournisseurs sont requis, tant au départ que de manière continue.
Le processus TEVV est un processus spécifiquement recommandé par le NIST dans son cadre d'intelligence artificielle. Cela implique d'établir des tests, des évaluations, des validations et des validations continues tout au long du cycle de vie du modèle d'IA, ainsi que de fournir des mesures d'exécution sur la fonctionnalité, la sécurité et la fiabilité du modèle d'IA.
Pour déployer de grands modèles de langage de manière éthique, la liste de contrôle de l'OWASP exige que les entreprises utilisent des cartes de modèles et de risques qui peuvent être utilisées pour permettre aux utilisateurs de comprendre et de faire confiance aux systèmes d'IA, et de lutter ouvertement contre les préjugés et la confidentialité. etc. conséquences négatives potentielles.
Ces cartes peuvent contenir des éléments tels que des détails sur le modèle, l'architecture, les méthodes de données d'entraînement et les mesures de performances. Les considérations en faveur d’une IA responsable et les préoccupations concernant l’équité et la transparence sont également mises en avant.
Retrieval Augmented Generation (RAG) est une méthode d'optimisation de la capacité des grands modèles de langage à récupérer des données pertinentes à partir de sources spécifiques. C'est l'un des moyens d'optimiser les modèles pré-entraînés ou de recycler les modèles existants en fonction de nouvelles données pour améliorer les performances. L'OWASP recommande aux entreprises de mettre en œuvre RAG pour maximiser la valeur et l'efficacité des grands modèles de langage.
Enfin, la liste de contrôle OWASP souligne l'importance de l'AI Red Teaming, qui simule des attaques contradictoires sur les systèmes d'IA pour identifier les vulnérabilités et valider les contrôles et les défenses existants. L'OWASP souligne que les équipes rouges devraient faire partie intégrante d'une solution de sécurité complète dotée d'une IA générative et de grands modèles de langage.
Il convient de noter que les entreprises doivent également avoir une compréhension claire des services de l'équipe rouge, ainsi que des exigences et des capacités du système de l'IA générative externe et des grands fournisseurs de modèles de langage pour éviter de violer les politiques ou même d'avoir des problèmes juridiques.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!