Au fil des années, des géants de la technologie tels que Google et Facebook ont investi des milliards de dollars dans la recherche et le développement de l'intelligence artificielle (IA), mettant en avant son potentiel. Mais aujourd’hui, les chercheurs affirment qu’il est temps de redéfinir les attentes en matière d’IA.
Il est vrai que le développement de la technologie de l’IA a fait certains progrès ces derniers temps. Les entreprises ont développé davantage de systèmes d’IA capables de produire des conversations, des poèmes et des images qui ressemblent à des humains. Cependant, les éthiciens et les chercheurs en IA avertissent que certaines entreprises exagèrent les capacités de l'IA et que ce battage médiatique crée des malentendus généralisés et déforme les opinions des décideurs politiques sur la puissance et le manque de fiabilité de l'IA.
"Nous avons perdu l'équilibre", a déclaré Oren Etzioni, PDG de l'Allen Institute for Artificial Intelligence, une organisation de recherche à but non lucratif de Seattle. Selon Etzioni et d'autres chercheurs, ce déséquilibre explique en partie pourquoi tant de gens sont influencés par les affirmations des ingénieurs de Google selon lesquelles l'IA est sensible.
L'ingénieur Blake Lemoine de Google a proposé que l'un des systèmes d'IA de l'entreprise soit considéré comme sensible en fonction de ses croyances religieuses. Il a affirmé que le chatbot IA est effectivement devenu une personne, avec le droit de décider d'autoriser ou non les expériences sur celui-ci. Google l'a ensuite suspendu et a rejeté ses réclamations. Google a déclaré que les éthiciens de l'entreprise et les experts en technologie avaient étudié la possibilité et rejeté ses affirmations.
Lemoyne qui prétend que l'IA est sensible
L'idée selon laquelle l'IA devient consciente ou pourrait l'être reste marginale dans la communauté scientifique au sens large, disent les chercheurs.
D'un point de vue pratique, la série de technologies couvertes par l'IA reste utile dans une large mesure pour une série de tâches logistiques back-end banales, telles que le traitement des données des utilisateurs afin de mieux diffuser des publicités et du contenu aux utilisateurs. .Faire des recommandations de produits.
Au cours des 10 dernières années, des entreprises telles que Google, la société mère de Facebook Meta et Amazon ont investi massivement dans l'amélioration de ces capacités afin de stimuler leur croissance et leurs moteurs de profit. Google, par exemple, utilise l'IA pour mieux analyser les invites de recherche complexes, l'aidant ainsi à diffuser des annonces et des résultats Web pertinents.
Certaines startups ont des ambitions encore plus grandes. L'une des sociétés, OpenAI, qui a levé des milliards de dollars auprès de donateurs et d'investisseurs, dont le PDG de Tesla, Elon Musk, et Microsoft Corp., vise à réaliser ce qu'on appelle l'IA générale, c'est-à-dire la capacité de systèmes qui correspondent ou dépassent toutes les dimensions de l'être humain. intelligence. Certains chercheurs pensent que ce sera dans des décennies, voire dans des décennies.
La concurrence entre ces entreprises pour se surpasser entraîne le développement rapide de l’IA et donne lieu à des démonstrations de plus en plus convaincantes. Ces démonstrations ont captivé l'imagination du public et attiré l'attention sur la technologie.
Le système DALL-E d'OpenAI peut générer des illustrations basées sur les invites des utilisateurs, telles que « McDonald's sur l'orbite de Saturne » ou « un ours portant des vêtements de sport participant à un triathlon », qui a inspiré de nombreux mèmes sur les réseaux sociaux ces dernières semaines. Par la suite, Google a suivi l'exemple du système DALL-E et a lancé son propre système de génération d'œuvres d'art basé sur du texte.
Même si ces résultats sont impressionnants, un nombre croissant d'experts avertissent que les entreprises ne contrôlent pas correctement leur publicité.
Margaret Mitchell, qui a codirigé l'équipe d'IA éthique de Google, a été licenciée après avoir écrit un article critique sur les systèmes de Google. Elle a déclaré que l'un des arguments de vente de Google auprès des actionnaires est qu'il est le meilleur au monde en matière d'IA.
Mitchell travaille actuellement dans une startup d'IA appelée Hugging Face. Elle et Timnit Gebru, un autre co-responsable de l'éthique de l'IA chez Google, ont été les premiers à mettre en garde contre les dangers de l'IA. . Gebru a également été licencié de Google.
Selon le dernier article qu'ils ont rédigé alors qu'ils travaillaient chez Google, ils affirment que ces technologies peuvent parfois causer des dommages, car leurs capacités semblables à celles des humains signifient qu'elles sont tout aussi susceptibles d'échouer que les humains. Par exemple, le système d’IA de Facebook a mal traduit le mot arabe « bonjour » par « les blesser » lorsqu’il est traduit en anglais et « les attaquer » lorsqu’il est traduit en hébreu, ce qui a conduit à une arrestation par la police israélienne. erreur.
Les documents internes de Facebook exposés l’année dernière ont également montré que le système d’IA de Facebook ne pouvait pas toujours identifier les vidéos filmées à la première personne et les remarques racistes, et n’a supprimé qu’une petite partie du contenu qui violait les réglementations de l’entreprise. Facebook a déclaré que les améliorations apportées à la technologie de l'IA ont considérablement réduit les discours de haine et autres contenus qui enfreignent ses règles.
L'idéal est très plein, la réalité est très maigre. Etzioni et d'autres ont souligné le marketing d'IBM autour de Watson. Watson est un système d'IA développé par IBM qui est devenu célèbre pour avoir battu des humains dans le quiz "Jeopardy!" Cependant, après 10 ans et des milliards de dollars d'investissement, IBM a déclaré l'année dernière qu'il étudiait la possibilité de vendre sa division Watson Health, dont le produit principal est censé aider les médecins à diagnostiquer et à traiter le cancer.
Comme l'IA est désormais omniprésente et implique davantage d'entreprises, les logiciels qu'elles développent incluent la messagerie électronique, les moteurs de recherche, les fils d'actualité et les assistants vocaux, et ont pénétré dans nos vies numériques, les risques sont donc encore plus grands.
Rejetant les affirmations selon lesquelles l'IA serait sensible, le porte-parole de Google, Brian Gabriel, a déclaré que les chatbots et autres outils conversationnels de l'entreprise "peuvent improviser sur n'importe quel sujet irréel". "Si vous demandez à un dinosaure en forme de glace à quoi il ressemble, il peut générer un texte sur des choses comme la fonte et le rugissement, ce qui est différent de la perception", dit-il.
Elizabeth Kumar, doctorante en informatique à l'Université Brown qui étudie la politique en matière d'IA, a déclaré que ce fossé cognitif s'est discrètement infiltré dans les documents politiques.
Récemment, des réglementations et propositions réglementaires locales, fédérales et internationales ont tenté de répondre au risque que les systèmes d'IA causent des dommages par la discrimination, la manipulation ou autrement, le tout sur la base de l'hypothèse que les systèmes d'IA sont hautement performants. Kumar a déclaré qu'ils ignoraient largement la possibilité que le système d'IA "n'ait tout simplement pas fonctionné" pour causer des dommages, et que c'était plus probable.
Etzioni est également membre du groupe de travail national sur les ressources de recherche en intelligence artificielle de l’administration Biden. Il a noté que les décideurs politiques ont souvent du mal à comprendre ces questions. "Je peux vous dire, d'après mes conversations avec certains d'entre eux, qu'ils ont de bonnes intentions et posent de bonnes questions, mais qu'ils ne savent pas tout", a-t-il déclaré.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!