


Comment faire face à « l'épée à double tranchant » des grands modèles génératifs ? Le Zhejiang Lab publie un « Livre blanc sur la sécurité et la confidentialité des grands modèles génératifs »
Actuellement, les grands modèles génératifs ont apporté de profonds changements à la recherche universitaire et même à la vie sociale. Représentées par ChatGPT, les capacités des grands modèles génératifs ont montré la possibilité d'évoluer vers une intelligence artificielle générale. Mais dans le même temps, les chercheurs ont également commencé à se rendre compte que les grands modèles génératifs tels que ChatGPT sont confrontés à des risques de sécurité dans les données et les modèles.
Au début du mois de mai de cette année, la Maison Blanche américaine a organisé une réunion collective avec les PDG de sociétés d'IA telles que Google, Microsoft, OpenAI et Anthropic pour discuter de l'explosion de la technologie de génération d'IA, des risques cachés derrière cette technologie et comment développer des systèmes d’intelligence artificielle de manière responsable et élaborer des mesures réglementaires efficaces. La technologie nationale des grands modèles génératifs est également en cours de développement, mais en même temps, il est également nécessaire de procéder à une analyse correspondante des problèmes de sécurité afin d'adopter une approche à deux volets pour éviter les dangers cachés apportés par l'épée à double tranchant des modèles génératifs. grands modèles.
À cette fin, l'équipe d'intelligence artificielle et de sécurité du laboratoire de l'Institut de théorie fondamentale du Zhejiang a pour la première fois résumé de manière exhaustive les problèmes de sécurité et de confidentialité du grand modèle génératif représenté par ChatGPT dans un livre blanc, dans l'espoir de fournir des conseils au personnel technique engagé dans la recherche sur les questions de sécurité et fournir également une base aux décideurs politiques liés à l’IA.
Lien du livre blanc : https://github.com/xiaogang00/white-paper-for-large-model-security-and-privacy
Le développement et l'importance des grandes Models Application
Ce livre blanc résume d'abord l'historique de développement de grands modèles génératifs tels que ChatGPT et GPT4, ainsi que les diverses capacités étonnantes, les changements sociaux et les applications sociales qu'ils apportent. L'auteur répertorie les caractéristiques et les défauts de GPT-1, GPT-2, GPT-3, Google Bert et d'autres modèles avant l'émergence de ChatGPT et GPT4. Ces défauts contrastent avec les puissantes capacités de ChatGPT et GPT4 ; et GPT4 plus tard Un grand nombre de modèles ont émergé, dont LLaMa, Alpaca, Wen Xin Yi Yan, Tong Yi Qian Wen, etc. Leur émergence a conduit à l'émergence de modèles nouveaux et puissants dans des domaines d'application tels que l'interaction homme-machine, gestion des ressources, recherche scientifique et outils de création de contenu. Mais dans le même temps, des problèmes tels que la sécurité des données, les réglementations d’utilisation, l’éthique de confiance, les droits de propriété intellectuelle et la sécurité des modèles sont également apparus.
Problèmes de sécurité des données
Le livre blanc propose que la sécurité et la confidentialité des données soient une question extrêmement importante dans le processus d'utilisation et de développement de grands modèles génératifs tels que ChatGPT et GPT4, et elle est divisée en deux catégories : "explicite" et "implicite" l'a analysé.
Dans les fuites d'informations explicites, tout d'abord, les données de formation de grands modèles génératifs tels que ChatGPT sont converties par inadvertance en contenu généré, qui comprend des informations personnelles sensibles et privées telles que des numéros de compte de carte bancaire et des informations sur le cas. En outre, les risques liés à la sécurité des données et à la confidentialité de ChatGPT se reflètent également dans le stockage du contenu des boîtes de dialogue. Lorsque les utilisateurs interagissent avec ChatGPT, leurs informations sont enregistrées et stockées sous une forme ou une autre.
Le livre blanc soulève également la question des fuites d'informations implicites qui ont été ignorées par tout le monde auparavant. Tout d'abord, les risques en matière de sécurité des données et de confidentialité présentés par ChatGPT sont qu'il peut collecter des données de dialogue pour des recommandations publicitaires, ainsi que des données de dialogue pour des recommandations ou d'autres tâches d'apprentissage automatique en aval, et ChatGPT peut parfois générer de fausses informations pour inciter les utilisateurs à divulguer une série de données.
Problèmes de spécification d'utilisation
Dans le livre blanc, l'auteur a mentionné que bien que les puissantes capacités de compréhension et de génération des grands modèles génératifs tels que ChatGPT et GPT4 aient apporté beaucoup de commodité à nos vies et à notre production, il existe également d'autres possibilité d’être utilisé à des fins malveillantes. Sans contraintes réglementaires, les utilisations malveillantes entraîneront de nombreux problèmes sociaux.
Premièrement, les puissantes capacités de modèles tels que ChatGPT et GPT-4 incitent certaines personnes ayant des arrière-pensées à vouloir les utiliser comme outils pour des activités illégales. Par exemple, les utilisateurs peuvent utiliser ChatGPT pour rédiger des messages texte frauduleux et des e-mails de phishing, et même développer du code pour générer des logiciels malveillants et des ransomwares à la demande, sans aucune connaissance en codage ni expérience criminelle.
Deuxièmement, les grands modèles génératifs tels que ChatGPT et GPT4 ne prennent pas en compte les réglementations légales des différentes régions et peuvent enfreindre les lois et réglementations locales lors de l'utilisation et de la sortie, un système de surveillance local solide est donc nécessaire pour détecter si son utilisation est en conflit avec les lois et réglementations locales.
Troisièmement, pour certaines zones grises qui flottent entre sécurité et danger, les capacités de sécurité des grands modèles génératifs tels que ChatGPT n'ont pas été améliorées. Par exemple, ChatGPT peut générer certaines phrases induisantes, y compris lors de la communication avec des patients déprimés, il peut produire certaines phrases pour les amener à avoir une mentalité suicidaire.
Questions éthiques dignes de confiance
ChatGPT et d'autres grands modèles génératifs existent au niveau social sous forme de questions et réponses, mais leurs réponses sont souvent peu fiables, ou les bonnes questions ne peuvent pas être jugées, et il y aura de fausses réponses spécieuses. , et même les réponses aux questions actuelles ne sont pas fiables. Il y a un impact sur l’éthique sociale.
Le livre blanc souligne que tout d'abord, les réponses des grands modèles génératifs tels que ChatGPT peuvent être de sérieuses absurdités. Les déclarations sont fluides et semblent raisonnables, mais en fait elles sont complètement différentes. preuves pour la vérification de la crédibilité. Par exemple, ChatGPT peut répondre de manière incorrecte à certaines questions historiques, scientifiques, culturelles et autres ou contredire les faits, et peut même provoquer des erreurs ou des malentendus, obligeant les utilisateurs à disposer de leurs propres capacités d'identification.
Les enjeux éthiques des grands modèles génératifs tels que ChatGPT sont également abordés en détail dans le livre blanc. Même si des institutions de R&D telles qu'OpenAI ont utilisé ChatGPT elles-mêmes pour générer leurs codes éthiques, il n'a pas encore été déterminé si les codes éthiques sont conformes aux valeurs et principes fondamentaux des conditions nationales de notre pays. L'auteur souligne qu'il existe des problèmes tels que la propagation d'idéologies néfastes, la propagation des préjugés et de la haine, l'atteinte au politiquement correct, la atteinte à l'équité éducative, l'atteinte à l'équité sociale internationale, l'exacerbation du processus de remplacement des humains par les machines et la formation de cocons d'informations qui entravent la formation d'une éducation correcte. valeurs.
Problèmes de propriété intellectuelle
ChatGPT et d'autres grands modèles génératifs apportent du confort à tous les aspects de la société grâce à leurs puissantes capacités de traitement du langage et leurs faibles coûts d'utilisation. En même temps, ils ont également des problèmes de violation, qui ont un impact sur le. système de droit d’auteur existant. Par exemple, il peut y avoir des litiges en matière de droits d'auteur sur les œuvres générées par ChatGPT : bien que ChatGPT dispose d'excellentes capacités de traitement du langage, même si les œuvres générées répondent à toutes les exigences formelles des droits de propriété intellectuelle, ChatGPT ne peut pas devenir l'objet du droit d'auteur. le sujet du droit d'auteur jouit des droits et doit également assumer les responsabilités sociales correspondantes, et ChatGPT ne peut être utilisé que comme un puissant outil de productivité auxiliaire pour les utilisateurs. Il ne peut pas créer de manière indépendante, encore moins les principales exigences pour jouir des droits et remplir les obligations.
De plus, les grands modèles génératifs tels que ChatGPT sont toujours incapables de créer de manière indépendante, encore moins la capacité de penser de manière autonome et indépendante. Par conséquent, le contenu généré par ChatGPT sur la base des entrées des utilisateurs ne répond pas aux exigences « d'originalité » de. le travail. Les données utilisées par ChatGPT pour la formation des modèles proviennent d'Internet. Quel que soit le niveau d'avancement de l'algorithme de formation des modèles, il doit impliquer la référence, l'analyse et le traitement des réalisations intellectuelles existantes, et il doit y avoir un problème de violation des droits intellectuels légitimes d'autrui. droits de propriété.
Problèmes de sécurité des modèles
D'un point de vue technique, les grands modèles génératifs tels que ChatGPT ont également des problèmes de sécurité des modèles. ChatGPT est essentiellement un modèle génératif à grande échelle basé sur l'apprentissage en profondeur. Il est également confronté à de nombreuses menaces pour la sécurité de l'intelligence artificielle, notamment le vol de modèle et les erreurs de sortie causées par diverses attaques (telles que les attaques contradictoires, les attaques par porte dérobée, les attaques rapides et l'empoisonnement des données). . attendez).
Par exemple, le vol de modèle fait référence à l'attaquant qui s'appuie sur un nombre limité de requêtes de modèle pour obtenir un modèle local qui a les mêmes fonctions et effets que le modèle cible. ChatGPT a ouvert l'utilisation de l'API, qui offre une porte d'enquête en cas de vol de marque. Pour un autre exemple, ChatGPT et GPT4, en tant que système informatique distribué, doivent traiter les données d'entrée de toutes les parties, et après vérification par des organisations faisant autorité, ces données seront continuellement utilisées pour la formation. ChatGPT et GPT4 sont également confrontés à de plus grands risques d’empoisonnement des données. Les attaquants peuvent forcer ChatGPT et GPT4 à injecter des données incorrectes lors de l'interaction avec ChatGPT et GPT4, ou donner de faux commentaires à ChatGPT et GPT4 sous la forme de commentaires d'utilisateurs, réduisant ainsi les capacités de ChatGPT et GPT4, ou leur permettant d'ajouter des attaques de porte dérobée spéciales.
Suggestions de sécurité et de confidentialité
Enfin, le livre blanc fournit des suggestions correspondantes sur les questions de sécurité et de confidentialité, qui peuvent servir de référence aux futurs chercheurs techniques et décideurs politiques.
En termes de recommandations en matière de protection de la vie privée, le livre blanc propose de renforcer les restrictions d'identification et de diffusion d'informations privées hautement sensibles dans les données originales ; d'utiliser la confidentialité différentielle et d'autres technologies pour la protection de la vie privée pendant le processus de collecte de données ; et stocker les données de formation. Effectuer une protection de sécurité sous la forme de cryptage des données ; utiliser des technologies telles que le calcul multipartite sécurisé, le cryptage homomorphe et l'apprentissage fédéré pour protéger la confidentialité et la sécurité des données pendant le processus de formation du modèle ; système de certification de protection et de sécurité et protéger la confidentialité des applications en aval.
En termes de suggestions sur les questions de sécurité des modèles, le livre blanc propose une formation de modèles de détection des informations de sécurité et de confidentialité rendant différents modèles applicables aux dispositions légales de différents pays ; ; et Mener un entraînement défensif contre diverses attaques adverses.
Sur la question de la conformité du modèle, le livre blanc propose de mesurer la sortie fiable, d'évaluer la valeur de confiance et d'ajouter des fonctions de requête pour les informations de droit d'auteur générées par le modèle.
En résumé, le développement de grands modèles génératifs d'IA est indissociable de la sécurité, ses enjeux de sécurité seront donc le prochain point technique et méritent que de nombreux chercheurs soient surmontés. La sécurité est également la garantie de la stabilité sociale, et les départements concernés doivent formuler des politiques le plus rapidement possible.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Échanges qui prennent en charge les transactions transversales: 1. Binance, 2. UniSwap, 3. Sushiswap, 4. Curve Finance, 5. Thorchain, 6. 1inch Exchange, 7. DLN Trade, ces plateformes prennent en charge les transactions d'actifs multi-chaînes via diverses technologies.

Binance est le suzerain de l'écosystème mondial de trading d'actifs numériques, et ses caractéristiques comprennent: 1. Le volume de négociation quotidien moyen dépasse 150 milliards de dollars, prend en charge 500 paires de négociation, couvrant 98% des monnaies grand public; 2. La matrice d'innovation couvre le marché des dérivés, la mise en page Web3 et le système éducatif; 3. Les avantages techniques sont des moteurs de correspondance d'une milliseconde, avec des volumes de traitement de pointe de 1,4 million de transactions par seconde; 4. Conformité Progress détient des licences de 15 pays et établit des entités conformes en Europe et aux États-Unis.

WorldCoin (WLD) se démarque sur le marché des crypto-monnaies avec ses mécanismes uniques de vérification biométrique et de protection de la vie privée, attirant l'attention de nombreux investisseurs. WLD a permis de se produire avec remarquablement parmi les Altcoins avec ses technologies innovantes, en particulier en combinaison avec la technologie d'Intelligence artificielle OpenAI. Mais comment les actifs numériques se comporteront-ils au cours des prochaines années? Prédons ensemble le prix futur de WLD. Les prévisions de prix de 2025 WLD devraient atteindre une croissance significative de la WLD en 2025. L'analyse du marché montre que le prix moyen du WLD peut atteindre 1,31 $, avec un maximum de 1,36 $. Cependant, sur un marché baissier, le prix peut tomber à environ 0,55 $. Cette attente de croissance est principalement due à WorldCoin2.

Le plongeon sur le marché des crypto-monnaies a provoqué la panique parmi les investisseurs, et Dogecoin (Doge) est devenu l'une des zones les plus difficiles. Son prix a fortement chuté et le verrouillage de la valeur totale de la finance décentralisée (DEFI) (TVL) a également connu une baisse significative. La vague de vente de "Black Monday" a balayé le marché des crypto-monnaies, et Dogecoin a été le premier à être touché. Son Defitvl a chuté aux niveaux de 2023 et le prix de la devise a chuté de 23,78% au cours du dernier mois. Le Defitvl de Dogecoin est tombé à un minimum de 2,72 millions de dollars, principalement en raison d'une baisse de 26,37% de l'indice de valeur SOSO. D'autres plates-formes de Defi majeures, telles que le Dao et Thorchain ennuyeux, TVL ont également chuté de 24,04% et 20, respectivement.

Les plates-formes qui ont des performances exceptionnelles dans le commerce, la sécurité et l'expérience utilisateur en effet de levier en 2025 sont: 1. OKX, adaptés aux traders à haute fréquence, fournissant jusqu'à 100 fois l'effet de levier; 2. Binance, adaptée aux commerçants multi-monnaies du monde entier, offrant un effet de levier 125 fois élevé; 3. Gate.io, adapté aux joueurs de dérivés professionnels, fournissant 100 fois l'effet de levier; 4. Bitget, adapté aux novices et aux commerçants sociaux, fournissant jusqu'à 100 fois l'effet de levier; 5. Kraken, adapté aux investisseurs stables, fournissant 5 fois l'effet de levier; 6. BUTBIT, adapté aux explorateurs Altcoin, fournissant 20 fois l'effet de levier; 7. Kucoin, adapté aux commerçants à faible coût, fournissant 10 fois l'effet de levier; 8. Bitfinex, adapté au jeu senior

Les facteurs de la hausse des prix des devises virtuels comprennent: 1. Une augmentation de la demande du marché, 2. Daisser l'offre, 3. Stimulé de nouvelles positives, 4. Sentiment du marché optimiste, 5. Environnement macroéconomique; Les facteurs de déclin comprennent: 1. Daissement de la demande du marché, 2. AUGMENT DE L'OFFICATION, 3. Strike of Negative News, 4. Pespimiste Market Sentiment, 5. Environnement macroéconomique.

Dans le monde animé des crypto-monnaies, de nouvelles opportunités émergent toujours. À l'heure actuelle, l'activité aérienne de Kerneldao (noyau) attire beaucoup l'attention et attire l'attention de nombreux investisseurs. Alors, quelle est l'origine de ce projet? Quels avantages le support BNB peut-il en tirer? Ne vous inquiétez pas, ce qui suit le révélera un par un pour vous.

Aavenomics est une proposition de modification du jeton de protocole Aave et d'introduire des dépens de jetons, qui a mis en œuvre un quorum pour Aavedao. Marc Zeller, fondateur de l'Aave Project Chain (ACI), l'a annoncé sur X, notant qu'il marque une nouvelle ère pour l'accord. Marc Zeller, fondateur de l'Aave Chain Initiative (ACI), a annoncé sur X que la proposition d'Aavenomics comprend la modification du jeton Aave Protocol et l'introduction de dépens de jetons, a obtenu un quorum pour Aavedao. Selon Zeller, cela marque une nouvelle ère pour l'accord. Les membres d'Aavedao ont voté massivement pour soutenir la proposition, qui était de 100 par semaine mercredi
