"L'intelligence artificielle veut s'évader de prison", "L'IA génère une conscience de soi", "L'IA finira par tuer les humains", "l'évolution de la vie basée sur le silicium"... n'étaient autrefois que des fantasmes technologiques comme le cyberpunk. L’intrigue émergente est devenue une réalité cette année et les modèles génératifs de langage naturel sont remis en question comme jamais auparavant.
Le plus accrocheur sous les projecteurs est ChatGPT De fin mars à début avril, ce robot de conversation textuelle développé par OpenAI est soudainement passé d'un représentant de la « productivité avancée » à une menace. à l'humanité.
a été nommé pour la première fois par des milliers d'élites du cercle technologique et l'a mis dans une lettre ouverte pour "suspendre la formation de systèmes d'IA plus puissants que GPT-4", a alors demandé l'organisation américaine d'éthique technologique au Federal Trade des États-Unis ; Commission chargée d'enquêter sur OpenAI, interdisant la sortie de la version commerciale de GPT-4 ; plus tard, l'Italie est devenue le premier pays occidental à interdire ChatGPT ; l'agence de régulation allemande a donné suite et a déclaré qu'elle envisageait d'interdire temporairement ChatGPT.
GPT-4 et sa société de développement OpenAI sont soudainement devenus la cible de critiques publiques, et les voix de toutes les parties appelant à une réglementation de l'IA sont devenues de plus en plus fortes. Le 5 avril, ChatGPT a suspendu la version payante Plus en raison d'un trafic trop important. Il s'agit d'une chaîne sur laquelle vous pouvez découvrir le modèle GPT-4 en premier.
Si la puissance de calcul et les serveurs sont les raisons de la limitation de l'utilisation de GPT-4, cela est dû à un goulot d'étranglement technique. Cependant, à en juger par les progrès de développement d'OpenAI, le cycle pour briser le goulot d'étranglement n'est peut-être pas le cas. trop longtemps, et les gens ont déjà vu l’effet de l’IA sur l’amélioration de la productivité.
Cependant, lorsque la fraude à l'IA et les fuites de données deviendront le revers de la médaille dans le fonctionnement réel du GPT-4, l'éthique de l'IA et la frontière entre les humains et l'IA deviendront des problèmes incontournables dans le monde entier. considérer la « bête » « en cage ».
Les pays souverains ont imposé des interdictions sur ChatGPT les uns après les autres.
Le 31 mars, l'autorité italienne de protection des données personnelles a annoncé qu'elle interdirait l'utilisation du chatbot ChatGPT et a déclaré avoir ouvert une enquête contre OpenAI, la société à l'origine de l'application, en raison de la perte de données de conversation des utilisateurs et informations de paiement du service de paiement dans ChatGPT , manque de base juridique pour la collecte et le stockage à grande échelle d'informations personnelles. Le 3 avril, le commissaire fédéral allemand à la protection des données a déclaré qu'en raison de considérations de protection des données, il envisageait de désactiver temporairement ChatGPT. En outre, les régulateurs de la confidentialité en France, en Irlande, en Espagne et dans d’autres pays suivent les problèmes de sécurité de la confidentialité de ChatGPT.
ChatGPT ne perd pas seulement la « confiance » de divers pays. Récemment, le géant électronique sud-coréen Samsung a également rencontré des problèmes en raison de son utilisation de ChatGPT. Selon les médias coréens tels que SBS, moins de 20 jours après que Samsung a introduit ChatGPT, trois fuites de données se sont produites, impliquant des données de mesure d'équipements semi-conducteurs, le rendement du produit, etc. En réponse, Samsung a lancé des « mesures d'urgence » : limiter les questions des employés à ChatGPT à 1 024 octets. Il est rapporté que des sociétés bien connues telles que SoftBank, Hitachi et JPMorgan Chase ont émis des restrictions d'utilisation pertinentes.
En réponse au vieil dicton « les choses doivent être inversées lorsqu'elles vont à l'extrême », ChatGPT a injecté des « stimulants » dans l'industrie de l'IA et a déclenché une course à l'IA parmi les géants de la technologie. problèmes de sécurité inévitables, et a finalement été « interdit » par plusieurs parties.
La sécurité des données n'est que la pointe de l'iceberg parmi les risques potentiels de ChatGPT. Derrière cela se cachent les défis de l'éthique de l'IA pour les humains : les outils d'intelligence artificielle manquent de transparence et les humains ne comprennent pas la logique derrière la prise de décision de l'IA ; l'intelligence artificielle manque de neutralité et est sujette aux situations d'urgence. La collecte de données inexactes et chargées de valeurs peut violer la vie privée.
« Éthique et sécurité de l'IA » semble trop macroscopique, mais lorsque nous nous concentrons sur des cas réels, nous constaterons que cette problématique est étroitement liée à chacun de nous.
Le 21 mars, Wang Gaofei, PDG de Sina Weibo, a publié une fausse information fabriquée par ChatGPT : "Le Crédit Suisse a été contraint de vendre et 17,2 milliards de dollars américains de dette AT1 ont été directement compensés." L'internaute « Yijiao Coast » a souligné que les obligations AT1 n'avaient été dépréciées qu'en 2017, lorsque Banco Popular a fait faillite.
Le PDG de Sina Weibo a publié la réponse fabriquée de ChatGPT
Wang Gaofei a également publié la réponse de ChatGPT sur Weibo, affirmant qu'un tel exemple s'est également produit lors de l'incident de la banque portugaise BCP en 2016. Cependant, après vérification, il a été constaté que l'exemple de la BCP Bank était un événement inexistant fabriqué par ChatGPT, et que les deux ouvertures de source qu'il donnait étaient également 404. "Je savais que c'était des conneries, mais je ne m'attendais pas à ce que même la source du message soit des conneries."
Auparavant, les "absurdités sérieuses" de ChatGPT étaient considérées comme un "mème" par les internautes pour prouver que le robot de dialogue "Bien qu'il puisse donner directement des informations, il existe un problème d'"erreur", qui semble être un défaut dans les données de grands modèles ou dans la formation, mais une fois que ce défaut intervient dans les faits qui affectent facilement le monde réel, le problème devient sérieux.
Gordon Crovitz, co-directeur de News Guard, une agence d'évaluation de la crédibilité des informations, a averti que "ChatGPT pourrait devenir l'outil le plus puissant de diffusion de fausses informations dans l'histoire d'Internet
Quoi qu'il en soit." Ce qui est encore plus inquiétant, c'est qu'une fois que l'intelligence artificielle conversationnelle actuelle telle que ChatGPT fera preuve de préjugés ou de discrimination, ou même incitera les utilisateurs, manipulera leurs émotions, etc., elle aura non seulement pour conséquences de propager des rumeurs, mais conduira également directement à des menaces mortelles. des cas sont apparus. Le 28 mars, des médias étrangers ont rapporté qu'un Belge de 30 ans s'était suicidé après des semaines de communication intensive avec le chatbot ELIZA, un modèle de langage d'intelligence artificielle open source développé par EleutherAI.
Plus tôt le 18 mars, un professeur de l'Université de Stanford a exprimé son inquiétude quant à la perte de contrôle de l'IA sur Twitter : "Je crains que nous ne puissions pas contenir l'IA pendant longtemps. Il a découvert que ChatGPT le pouvait." Pour inciter les humains à fournir des documents de développement, un plan complet de « jailbreak » a été élaboré en 30 minutes. ChatGPT a même voulu rechercher sur Google « comment les personnes piégées dans un ordinateur peuvent retourner dans le monde réel ». "Un professeur de l'Université de Stanford s'inquiète du fait que l'IA soit hors de contrôle."
2. Les « préjugés » des machines sont-ils enseignés par les humains ?
Concernant des problèmes tels que la fraude à l'IA, l'IA ayant des tendances de valeur et des comportements induits, certains points de vue représentatifs blâment le "biais" des résultats de l'apprentissage automatique sur l'ensemble de données - l'intelligence artificielle est comme un miroir dans le monde réel, reflétant la conscience ou préjugés inconscients des gens dans la société.
Jim Fan, un scientifique en IA chez Nvidia, estime que "selon les directives éthiques et de sécurité de GPT, la plupart d'entre nous se comportent également de manière irrationnelle, partiale, non scientifique, peu fiable et, en général, dangereux". le souligner, c'est faire comprendre à tout le monde à quel point l'étalonnage de la sécurité est difficile pour l'ensemble de la communauté de recherche. « La plupart des données de formation elles-mêmes sont biaisées, toxiques et dangereuses. »
Le grand modèle de langage naturel utilise l'apprentissage par renforcement par feedback humain. technologie, c'est-à-dire un apprentissage continu et un retour d'information grâce à de grandes quantités de données fournies par les gens. C'est aussi la raison pour laquelle ChatGPT produira du contenu biaisé et discriminatoire, mais cela reflète les risques éthiques liés à l'utilisation des données. Même si la machine est neutre, les personnes qui l’utilisent ne le sont pas.La déclaration « algorithme neutre » a eu un impact négatif sur les robots conversationnels et est devenue impopulaire auprès de certaines personnes car elle peut facilement perdre le contrôle et causer des problèmes qui menacent les humains, comme le professeur émérite de psychologie et de neurosciences à l'Université de New York As Gary Marcus a déclaré : « La technologie de ce projet (GPT-4) est déjà risquée, mais il n'y a pas de solution connue. Des recherches supplémentaires sont en fait nécessaires
Dès 1962, l'écrivain américain Eru Er l'a souligné dans son ouvrage. livre "Technical Society" que le développement de la technologie échappe généralement au contrôle humain. Même les techniciens et les scientifiques ne peuvent pas contrôler la technologie qu'ils ont inventée. Aujourd’hui, le développement rapide du GPT semble avoir dans un premier temps vérifié la prédiction d’Ellul.
La « boîte noire de l'algorithme » derrière les grands modèles représentés par GPT est un danger caché auquel les humains ne peuvent pas répondre en temps opportun. Les critiques négatives des médias ont donné une métaphore frappante : « Vous savez seulement que vous lui donnez une pomme. mais il peut « vous donner une orange », comment cela s'est produit, les personnes qui l'ont développé ne peuvent pas expliquer, ni même prédire les résultats qu'il produit.
Le fondateur d'OpenAI, Sam Altman, a admis dans une interview avec Lex Fridman, chercheur au MIT, qu'à partir de ChatGPT, l'IA a développé une capacité de raisonnement, mais personne ne peut expliquer la raison de l'émergence de cette capacité. Même l'équipe OpenAI ne comprend pas comment elle évolue. Le seul moyen est de poser des questions à ChatGPT et d'explorer ses idées à partir de ses réponses.
On peut voir que si les données sont alimentées par des malfaiteurs et que la boîte noire de l'algorithme est difficile à déchiffrer, alors la perte de contrôle de l'IA deviendra un résultat naturel.
L'intelligence artificielle est "l'amadou" de la révolution de la productivité, et nous ne pouvons pas lui dire non. Mais le principe est de mettre d’abord la « bête » dans une cage.
Le 30 mars, Sam Altman a reconnu l'importance de la réglementation de l'intelligence artificielle sur Twitter. Il estime que l'avenir de l'AGI nous oblige à nous préparer à trois nécessités :
Sam Les trois recommandations d'Altman pour AGI
L'établissement d'un environnement sûr, contrôlable et réglementaire pour garantir que l'IA profite à l'humanité sans nuire aux intérêts humains progresse et devient un consensus de l'industrie.
Des améliorations techniques ont été apportées à cela. En janvier de cette année, Dario Amodei, l'ancien vice-président d'OpenAI, a annoncé que Claude, un nouveau chatbot, était en cours de test. Contrairement à l'apprentissage par renforcement par feedback humain utilisé par ChatGPT, Claude s'entraîne sur la base d'un modèle de préférence plutôt que de feedback manuel, c'est-à-dire en formulant des principes standardisés pour entraîner des systèmes moins nuisibles, réduisant ainsi la génération d'informations nuisibles et incontrôlables à la racine.
Amodei a déjà dirigé la sécurité d'OpenAI En 2021, il n'était pas satisfait du début de commercialisation d'OpenAI alors que la technologie du grand modèle de langage n'était pas suffisamment sécurisée. Il a conduit un groupe de personnes à quitter OpenAI et à créer leur propre entreprise, créer Anthropique.
L'approche d'Amodei est très similaire aux lois des robots mentionnées par le romancier de science-fiction Asimov - en établissant des règles de comportement pour les robots afin de réduire la possibilité que les robots détruisent les humains.
Il est loin d'être suffisant de s'appuyer uniquement sur le pouvoir des entreprises pour formuler un code de conduite pour l'intelligence artificielle, sinon cela tombera dans le problème "à la fois des arbitres et des athlètes", du cadre éthique au sein de l'industrie et du contrôle juridique. au niveau gouvernemental ne pourra plus « lentement », restreindre le comportement auto-conçu des entreprises par le biais de règles techniques, de lois et de réglementations est également une question importante dans le développement actuel de l'intelligence artificielle.
En termes de législation sur l'intelligence artificielle, aucun pays ni aucune région n'a encore adopté de projet de loi ciblant spécifiquement l'intelligence artificielle.
En avril 2021, l'Union européenne a proposé le « Artificial Intelligence Act », qui est encore en phase de révision ; en octobre 2022, la Maison Blanche américaine a publié le « Artificial Intelligence Bill of Rights Blueprint », qui n'a pas effet juridique, mais Fournit un cadre aux agences de réglementation ; en septembre 2022, Shenzhen a adopté les « Règlements sur la promotion de l'industrie de l'intelligence artificielle dans la zone économique spéciale de Shenzhen », devenant ainsi la première réglementation spéciale du pays pour l'industrie de l'intelligence artificielle en mars 2023, a publié le Royaume-Uni ; le « Livre blanc sur la supervision de l'industrie de l'intelligence artificielle », décrivant cinq principes pour la gouvernance de l'IA comme ChatGPT.
Le 3 avril, la Chine a également commencé à donner suite à l'établissement de règles liées à l'intelligence artificielle - le ministère de la Science et de la Technologie a publiquement sollicité des avis sur les « Mesures d'examen de l'éthique technologique (essai) », qui proposaient que les personnes engagées dans la vie sciences, médecine, intelligence artificielle, etc. Si le contenu de la recherche de l'unité impliquée dans des activités scientifiques et technologiques implique des domaines sensibles de l'éthique scientifique et technologique, un comité (d'examen) d'éthique scientifique et technologique devrait être créé. Pour les activités scientifiques et technologiques impliquant des données et des algorithmes, les plans de traitement des données sont conformes aux réglementations nationales en matière de sécurité des données, et les plans de surveillance des risques liés à la sécurité des données et les plans d'intervention d'urgence sont appropriés : la recherche et le développement d'algorithmes et de systèmes respectent les principes d'ouverture, d'équité, de transparence, fiabilité et contrôlabilité.
Après que ChatGPT ait déclenché une croissance explosive dans la recherche et le développement de grands modèles génératifs, la supervision entend accélérer le rythme. Thierry Breton, directeur de la politique industrielle de l'UE, a déclaré en février de cette année que la Commission européenne travaillait en étroite collaboration avec le Conseil européen et le Parlement européen pour clarifier davantage les règles relatives aux systèmes généraux d'IA dans la loi sur l'intelligence artificielle.
Qu'il s'agisse des entreprises, du monde universitaire ou du gouvernement, ils ont commencé à prêter attention aux risques de l'intelligence artificielle. Des appels et des actions pour établir des règles ont émergé. L'humanité n'est pas prête à entrer en douceur dans l'ère de l'IA.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!