Récemment, une voiture d'une certaine marque a eu un accident lors des tests de prototype, causant de nombreux dégâts aux personnes et aux biens, et cela a immédiatement fait la une des journaux. Dans le même temps, l’opinion publique s’intéresse également à la question courante de la conduite des véhicules autonomes. La conduite autonome est-elle sûre ? Faut-il ouvrir la conduite autonome ? Sous l’égide de la conduite autonome, il est difficile de déterminer si l’intelligence artificielle peut placer le jugement moral au cœur du problème.
Le MIT aux États-Unis a conçu un site Web appelé Moral Machine. Le site Web conçoit divers scénarios de perte de contrôle de voitures pour permettre aux téléspectateurs de faire des choix et recueille les commentaires de 3 millions d'utilisateurs. Moral Machine a découvert que les gens sont plus enclins à laisser les voitures autonomes s'autodétruire pour protéger davantage de vies, mais espèrent que leurs voitures ne disposent pas de cette fonctionnalité. Cette conclusion n'a rien à voir avec la culture ou les coutumes. Il s'agit d'un choix commun des êtres humains et est conforme à la compréhension générale de la société. Les gens espèrent sacrifier la vie de quelques personnes en échange de celle d'un plus grand nombre de personnes. Mais cela est contraire à la loi, car la vie humaine elle-même ne peut être ni comparée ni quantifiée.
C'est un enjeu éthique inévitable pour la conduite autonome. D’une part, si l’IA est autorisée à prendre des décisions hors de contrôle, conformément aux dispositions d’intégration des pouvoirs et des responsabilités, cela signifie que l’IA ou l’entreprise de conduite autonome qui la soutient devrait assumer la responsabilité du comportement décisionnel. D’un autre côté, si l’IA n’est pas autorisée à prendre des décisions, on ne peut pas parler de conduite autonome, car la définition d’une voiture autonome est une voiture capable de détecter son environnement et de naviguer sans intervention humaine.
Le « problème du chariot » rencontré par la conduite autonome n'est qu'un microcosme des difficultés rencontrées par l'industrie de l'intelligence artificielle. Bien que les modèles d'intelligence artificielle soient devenus plus matures avec les progrès de la technologie et le développement de l'industrie du Big Data, ils se trouvent toujours dans une situation embarrassante lorsqu'il s'agit de questions humaines telles que la moralité et la conscience : selon la théorie de la « singularité » de l'intelligence artificielle , l'intelligence artificielle finira par surpasser les humains en termes de rationalité et de sensibilité, mais les humains ont toujours eu un « complexe de Frankenstein » concernant la sécurité de l'intelligence artificielle. Généralement, les humains sont psychologiquement incapables d'accepter l'empathie avec les machines non biologiques.
Début juin de cette année, LaMDA, le modèle de langage d'application conversationnel lancé par Google en 2021, a été révélé « conscient » par l'un de ses dirigeants, l'ingénieur Lemoy. Il pense que le modèle LaMDA est une « personne » qui a une conscience de soi, peut percevoir le monde et possède l'intelligence d'un enfant de sept ou huit ans. Lemoy a déclaré que le modèle LaMDA ne se considère pas seulement comme un être humain, mais se bat pour ses droits en tant qu'être humain et les défend vigoureusement. Après que l'incident a éclaté, de nombreux internautes ont soutenu Lemoy, estimant que la singularité de l'intelligence artificielle est arrivée. Ils croient que l'intelligence artificielle est devenue consciente et émouvante et peut penser de manière indépendante comme les humains.
L'intelligence artificielle est-elle morale ? Autrement dit, l'intelligence artificielle devrait-elle porter des jugements de valeur ?
Si l'intelligence artificielle est considérée comme morale, cela signifie qu'elle peut se débarrasser du contrôle de la volonté humaine et faire des évaluations indépendantes des événements ou des choses. Ce n'est pas difficile à réaliser au niveau technique. En « alimentant » une grande quantité de données, l'intelligence artificielle peut numériser des événements ou des choses et les mesurer selon un ensemble de « normes de jugement » formées par l'apprentissage profond. Il en va de même pour le modèle LaMDA ci-dessus. Mais en fait, le modèle LaMDA n'est qu'une machine à réponses. Gary Marcus, un expert bien connu en apprentissage automatique et en réseaux neuronaux, a déclaré : « LaMDA extrait simplement les mots du corpus humain et fait ensuite correspondre vos questions. la soi-disant « moralité » de l'intelligence artificielle « Ce n'est qu'une réponse à des événements ou à des choses, et ne permet pas une compréhension approfondie de ce qu'est l'évaluation morale et de la signification de l'évaluation morale.
Un autre exemple est que différents modèles d'intelligence artificielle ont différentes manières de gérer la même situation. Toujours en prenant comme exemple la conduite autonome, en se précipitant vers le même godet de la même manière, les résultats sont complètement différents. Certains sont directement entrés en collision, tandis que d’autres l’ont évité. Cela peut-il atteindre un niveau moral ? Evidemment non, il n'y a même pas de distinction entre les deux modèles, car les modèles conçus sur la base de concepts et d'exigences différents ont des caractéristiques particulières. Le premier estime que cette situation relève du fonctionnement du conducteur et ne nécessite pas d'intervention ; cette intervention doit être effectuée.
En prenant du recul, en supposant que l’intelligence artificielle a une conscience semblable à celle des humains et peut penser de manière indépendante, cela signifie-t-il que nous pouvons espérer qu’elle puisse résoudre des problèmes moraux ? La réponse est non. En termes simples, les problèmes moraux qui ne peuvent être résolus par les humains eux-mêmes ne peuvent pas être résolus par le nombre sans le concept d'« humanité ».
De ce point de vue, il n'y a pas de problème moral dans le jugement de valeur lié au développement de l'intelligence artificielle. Le plus important est d'analyser pourquoi une évaluation morale est nécessaire. L’objectif fondamental de l’évaluation morale est d’arriver à un résultat et de guider le comportement ultérieur. Le journaliste estime qu'en termes d'attribution de l'intelligence artificielle, l'intelligence artificielle devrait être divisée en systèmes de prise de décision et systèmes d'exécution, et qu'un système de « personne responsable » devrait être introduit pour les systèmes correspondants.
D'un point de vue décisionnel, même si d'un point de vue juridique, les actes sont punis mais pas les pensées, elle ne s'adresse qu'aux personnes physiques. Les « idées » de l'intelligence artificielle actuelle peuvent s'exprimer à travers des données, donc du point de vue décisionnel, l'intelligence artificielle doit encore être contrôlée. Il y a des erreurs dans les « idées » de l'intelligence artificielle. La raison en est qu'il y a un problème avec les données pour entraîner l'algorithme, c'est-à-dire que l'intelligence artificielle apprend les problèmes qui existent dans la société et les applique. Par exemple, Amazon, une marque américaine de commerce électronique, utilise des algorithmes d'intelligence artificielle pour filtrer dans un premier temps les CV des candidats lors du recrutement d'employés. Les résultats sont davantage biaisés en faveur des hommes, car lorsque les ingénieurs forment l'algorithme, ils utilisent des employés qui ont déjà été embauchés par Amazon. Les CV sont formés et Amazon compte davantage d'employés masculins. Le résultat est qu'un tel algorithme rend l'algorithme de sélection des CV d'Amazon plus biaisé en faveur des hommes, ce qui entraîne une « discrimination sexuelle » dans l'algorithme. Le journaliste estime que si le résultat juridique est causé par l'algorithme et les données de formation, la personne responsable de la conception ou de la formation de l'algorithme devrait être tenue responsable.
D'un point de vue comportemental, même si l'intelligence artificielle peut égaler ou même surpasser les humains en termes d'exécution comportementale, d'un point de vue juridique, l'intelligence artificielle est toujours considérée comme une chose plutôt que comme un sujet de droits et de capacités. Cela signifie également que la loi actuelle nie que l'intelligence artificielle puisse assumer de manière indépendante une responsabilité juridique. C'est essentiellement parce que l'intelligence artificielle ne peut pas être responsable des actions qu'elle accomplit. La mise en place d'un système de « personne responsable » est similaire au système de représentation légale. une organisation de personne morale. Elle est constituée de personnes spécifiques. La personne physique supporte la responsabilité découlant de l'acte. Distinguer « penser » et « agir » peut rendre l'attribution des responsabilités plus détaillée, garantissant une responsabilité efficace sans affecter l'enthousiasme pour le développement de l'industrie de l'intelligence artificielle. Dans le domaine civil actuel, la responsabilité du fait des produits s'applique à la contrefaçon de produits d'intelligence artificielle, mettant l'accent sur la responsabilité des développeurs, des producteurs et des vendeurs.
* * *
Ces dernières années, notre pays a successivement publié des documents politiques tels que les « Principes de gouvernance de l'intelligence artificielle de nouvelle génération » et le « Code éthique de l'intelligence artificielle de nouvelle génération », proposant clairement huit principes et mettant l'accent sur l'intégration de l'éthique et de la moralité dans l'ensemble du cycle de vie du système d'intelligence artificielle et maintenir le développement sain de l'industrie de l'intelligence artificielle dans une perspective de principe. Des sources pertinentes ont déclaré que le sous-comité sur l'intelligence artificielle du Comité national d'éthique scientifique et technologique étudie et rédige une liste à haut risque d'éthique de l'intelligence artificielle afin de mieux promouvoir la supervision éthique des activités de recherche scientifique sur l'intelligence artificielle. Je pense qu'avec l'introduction de davantage de réglementations juridiques, les problèmes éthiques liés à l'application de l'intelligence artificielle seront considérablement atténués.
Conseils
Problème du chariot : Le « problème du chariot » est l'une des expériences de pensée les plus célèbres dans le domaine de l'éthique. Il a été publié pour la première fois par la philosophe Philippa Foot en 1967 dans « Le double impact des questions d'avortement et du dogme » proposé dans l'article. . Le contenu général est que 5 personnes sont attachées à une voie de tramway, 1 personne est attachée à la voie de secours et un tramway incontrôlable approche à grande vitesse. Et il se trouve qu'il y a un joystick à côté de vous. Vous pouvez pousser le joystick pour faire rouler le tramway sur la voie de secours, tuer 1 personne et sauver 5 personnes ; vous pouvez également ne rien faire, tuer 5 personnes et sauver 1 personne. Ce type de dilemme éthique est connu sous le nom de « problème du chariot ».
Théorie de la « singularité » de l'intelligence artificielle : La première personne à introduire la « singularité » dans le domaine de l'intelligence artificielle fut le futuriste américain Ray Kurzweil. Dans ses deux livres, « La singularité est proche » et « L'avenir de l'intelligence artificielle », il a combiné les deux. Il a utilisé la « singularité » comme métaphore pour décrire une certaine étape temporelle et spatiale où les capacités de l'intelligence artificielle dépassent celles des humains. . Lorsque l'intelligence artificielle franchira cette « singularité », toutes les traditions, compréhensions, concepts et bon sens auxquels nous sommes habitués n'existeront plus. Le développement accéléré de la technologie entraînera un « effet d'emballement » et l'intelligence artificielle dépassera le potentiel et le potentiel. potentiel de l’intelligence humaine et changer rapidement la civilisation humaine.
Complexe de Frankenstein : Issu du romancier Asimov, il fait référence à l'état psychologique des êtres humains qui ont peur des machines. Frankenstein est le protagoniste d'un roman intitulé « Frankenstein : L'histoire d'un Prométhée moderne » écrit par Mary Shelley en 1818. Il a créé une créature humanoïde, mais il a également eu un Backlashed. « Frankenstein » est désormais utilisé pour désigner le monstre créé par les humains. Dans la littérature, les films et autres œuvres actuelles, le « complexe de Frankenstein » implique souvent que l'intelligence artificielle conquiert les humains et commence à gérer le monde. Journaliste Xu Yong stagiaire Yang Chenglin
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!