News le 4 mai, les « grands » qui ont construit la technologie de base de l’intelligence artificielle d’aujourd’hui ont émis des avertissements, affirmant que cette technologie est potentiellement dangereuse. Cependant, il n’existe actuellement aucun consensus sur les dangers de l’IA ou sur les mesures préventives.
Geoffrey Hinton, surnommé le « Parrain de l'intelligence artificielle », vient d'annoncer sa démission de Google. Il regrette une partie de son travail car il craint que les machines ne deviennent plus intelligentes que les humains, mettant ainsi en péril la survie de l'humanité.
Yoshua Bengio, professeur à l'Université de Montréal, est un autre pionnier dans le domaine de l'intelligence artificielle. Lui, avec Hinton et Yann LeCun, scientifique en chef de l'intelligence artificielle chez Meta, a reçu le prix Turing 2018 pour les percées dans les réseaux de neurones artificiels qui sont essentielles au développement des applications d'intelligence artificielle actuelles telles que ChatGPT. Mercredi, Bengio a déclaré qu'il était « tout à fait d'accord » avec les préoccupations de Hinton concernant les chatbots tels que ChatGPT et ses technologies associées, mais il craint que le simple fait de dire « nous sommes condamnés » ne résoudra pas le problème.
Bengio a ajouté : « La principale différence est qu’il (Hinton) est pessimiste et je suis plutôt optimiste. Je pense que ces dangers, à court et à long terme, sont si graves qu’il en faut plus que quelques-uns. Les chercheurs doivent prendre cela au sérieux, et cela doit être pris au sérieux par les gouvernements et le public. »
De nombreux signes montrent que les gouvernements écoutent les voix de tous les bords. La Maison Blanche a convoqué jeudi les PDG de Google, Microsoft et du fabricant de ChatGPT, OpenAI, pour une discussion « franche » avec la vice-présidente américaine Kamala Harris, axée sur la manière d'atténuer les risques technologiques à court et à long terme. Les législateurs européens accélèrent également les négociations pour adopter des règles réglementaires complètes sur l’IA.
Et certains craignent que le battage médiatique excessif sur les machines super intelligentes qui n’existent pas encore, en fantasmant sur les dangers les plus graves qu’elles peuvent poser, détourne l’attention des gens du développement de mesures de protection pratiques pour les produits d’intelligence artificielle actuels, qui ne relèvent souvent pas de la supervision.
Margaret Mitchell, l'ancienne responsable de l'équipe d'éthique de l'IA de Google, a déclaré qu'elle était contrariée que Hinton ne se soit pas exprimée au cours de sa décennie à la tête de Google, en particulier à propos d'éminents noirs après le licenciement du scientifique Timnit Gebru en 2020. Gebru a étudié les dangers des grands modèles de langage avant qu'ils ne soient largement commercialisés dans des produits comme ChatGPT et Google Bard.
Après le départ de Gebru, Mitchell a également été contraint de quitter Google. Elle a déclaré : « Elle (Gebru) a la chance d'être en dehors du cercle des communications discriminatoires, des propos haineux, des atteintes aux femmes et de la pornographie non consensuelle, qui nuisent toutes aux personnes marginalisées dans le domaine technologique. choses et pourrait s'inquiéter de choses plus lointaines. Depuis des années, il exprime ses inquiétudes quant aux risques à court terme de l’intelligence artificielle, notamment l’instabilité du marché du travail, les dangers des armes autonomes et des ensembles de données biaisés.
Mais récemment, ces inquiétudes sont devenues plus sérieuses, incitant Bengio à unir ses forces avec le PDG de Tesla, Elon Musk, le co-fondateur d'Apple, Steve Wozniak, et d'autres. D'autres informaticiens et dirigeants d'entreprises technologiques ont appelé à un moratoire de six mois sur le développement de des systèmes d'intelligence artificielle plus puissants que le dernier modèle d'OpenAI, GPT-4.
Bengio a déclaré mercredi qu'il pensait que les derniers modèles de langage d'intelligence artificielle avaient réussi le "test de Turing". Le test de Turing, nommé d'après une méthode développée en 1950 par le briseur de code britannique et pionnier de l'IA Alan Turing, est conçu pour mesurer le moment où l'intelligence artificielle devient impossible à distinguer des humains, du moins en surface.
Bengio a déclaré : « C'est une étape importante, mais si nous n'y prenons pas garde, cela pourrait avoir de graves conséquences. Ma principale préoccupation est de savoir comment ces technologies seront exploitées à des fins néfastes, telles que le lancement de cyberattaques et la diffusion de désinformations. »
Les chercheurs débattent de la question de savoir si les systèmes linguistiques d'intelligence artificielle actuels peuvent être plus intelligents que les humains, car ces systèmes ont de nombreuses limites, telles que les tendances à fabriquer des informations, etc.
Aidan Gomez est l'un des co-auteurs d'un article fondateur de 2017 qui a introduit une technique dite de conversion pour améliorer les performances des systèmes d'apprentissage automatique, en particulier lors du démarrage à partir d'apprendre à partir de passages de texte. Gomez, alors âgé de 20 ans seulement, était stagiaire chez Google. Il se souvient qu'il était allongé sur un canapé au siège californien de l'entreprise vers 3 heures du matin lorsque son équipe a envoyé le journal.
Gomez se souvient qu'un collègue lui avait dit : « Cela va avoir un impact énorme. Depuis lors, leurs recherches ont contribué à stimuler l'émergence de nouveaux systèmes capables de générer des articles qui ressemblent à des articles écrits par des humains. »
Six ans plus tard, Gomez est désormais PDG de Cohere, la société d'intelligence artificielle qu'il a fondée. Il était enthousiasmé par les applications potentielles de ces systèmes, mais il était également troublé par les menaces qui pesaient sur la technologie. Il a déclaré que les véritables capacités de ces systèmes sont déconnectées de la réalité et reposent sur des pouvoirs extraordinaires d’imagination et de raisonnement.
Gomez a déclaré : "L'idée selon laquelle ces modèles prendront d'une manière ou d'une autre le contrôle des armes nucléaires et déclencheront une sorte d'événement au niveau de l'extinction est infondée et inutile pour les efforts politiques véritablement pragmatiques qui tentent de faire le bien."
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!