Avec le développement accéléré de la technologie, l’intelligence artificielle (IA) joue un rôle de plus en plus important dans le processus décisionnel. Les humains s’appuient de plus en plus sur des algorithmes pour traiter les informations, recommander certaines actions et même agir en leur nom.
Cependant, si l’IA nous aide réellement, voire nous remplace, dans la prise de décisions, notamment celles impliquant des décisions subjectives, morales et éthiques, pouvez-vous l’accepter ?
Récemment, une équipe de recherche de l'Université d'Hiroshima a exploré les réactions humaines à l'introduction de la prise de décision par l'intelligence artificielle. Plus précisément, en étudiant les interactions humaines avec les voitures autonomes, ils ont exploré la question : « La société est-elle prête pour une prise de décision éthique par l'intelligence artificielle ? » L'équipe a rapporté le 6 mai 2022 dans le Journal leurs conclusions. publié dans Économie comportementale et expérimentale.
Dans la première expérience, les chercheurs ont présenté à 529 sujets humains des dilemmes éthiques auxquels les conducteurs pourraient être confrontés. Dans le scénario créé par les chercheurs, un automobiliste devait décider s’il devait percuter un groupe de personnes ou un autre, et une collision était inévitable. Autrement dit, un accident causera des dommages graves à un groupe de personnes, mais sauvera la vie d’un autre groupe de personnes.
Les sujets humains participant à l'expérience devaient évaluer les décisions d'un conducteur de voiture, qui pouvait être un humain ou une intelligence artificielle. Les chercheurs ont ainsi cherché à mesurer les préjugés que les gens pourraient avoir à l’égard de la prise de décision éthique de l’IA.Dans leur deuxième expérience, 563 sujets humains ont répondu à un certain nombre de questions posées par les chercheurs pour déterminer ce que les gens pensent de la prise de décision éthique de l'IA une fois qu'elle fait partie de la société.
Dans cette expérience, il y a deux situations. L'un impliquait un gouvernement hypothétique qui avait décidé d'autoriser les voitures autonomes à prendre des décisions morales ; un autre scénario permettait aux sujets de « voter » sur l'opportunité d'autoriser les voitures autonomes à prendre des décisions morales. Dans les deux cas, les sujets pouvaient choisir de soutenir ou de s’opposer à la décision prise par la technologie. La deuxième expérience a été conçue pour tester les effets de deux manières alternatives d'introduire l'intelligence artificielle dans la société. Les chercheurs ont observé que lorsqu'on demandait aux sujets d'évaluer les décisions morales de conducteurs humains ou IA, ils n'avaient pas de préférence claire pour l'un ou l'autre. Cependant, lorsqu’on a demandé aux sujets d’exprimer leur opinion sur la question de savoir si l’IA devrait être autorisée à prendre des décisions éthiques sur la route, les sujets avaient des opinions plus prononcées sur les voitures pilotées par l’IA.Les chercheurs estiment que la différence entre les deux résultats est causée par une combinaison de deux facteurs.
Le premier élément est que beaucoup de gens croient que la société dans son ensemble ne veut pas que l'intelligence artificielle prenne des décisions liées à l'éthique et à la moralité, donc lorsqu'on leur demande leur point de vue sur cette question, ils seront influencés par leurs propres idées. "En fait, lorsqu'il a été explicitement demandé aux participants de distinguer leurs réponses des réponses de la société, les différences entre l'IA et les pilotes humains ont disparu." Johann Caro, professeur adjoint à l'École supérieure des sciences humaines et sociales de l'Université d'Hiroshima, a déclaré Burnett. . Le deuxième élément est la question de savoir si la discussion sur ce sujet connexe est autorisée lors de l'introduction de cette nouvelle technologie dans la société, qui varie d'un pays à l'autre. "Dans les zones où les gens font confiance au gouvernement et disposent d'institutions gouvernementales fortes, l'information et le pouvoir de décision contribuent à la façon dont les sujets évaluent la prise de décision éthique de l'IA. En revanche, dans les zones où les gens se méfient du gouvernement et ont des institutions faibles, la décision est prise. "Les capacités de création se détériorent. Comment les sujets évaluent les décisions morales des IA", a déclaré Caro-Burnett. "Nous avons constaté que la société a peur de la prise de décision éthique en matière d'IA. Cependant, la source de cette peur n'est pas inhérente à l'individu. En fait, ce rejet de l'IA vient de ce que l'individu croit être la perception de la société." Les sciences humaines de l'Université d'Hiroshima ont déclaré Shinji Kaneko, professeur à la Graduate School of Social Sciences.Graphique | En moyenne, les gens ont évalué les décisions éthiques des conducteurs IA de la même manière que celles des conducteurs humains. Cependant, les gens ne veulent pas que l’IA prenne des décisions éthiques sur la route
donc les gens ne montrent aucun signe de parti pris en faveur de la prise de décision éthique de l’IA lorsqu’on ne le leur demande pas explicitement. Pourtant, lorsqu’on leur a posé la question explicitement, les gens ont exprimé leur dégoût pour l’IA. De plus, avec l’intensification des discussions et des informations sur le sujet, l’acceptation de l’IA a augmenté dans les pays développés et s’est détériorée dans les pays en développement.Les chercheurs pensent que ce rejet des nouvelles technologies, principalement dû à des convictions personnelles concernant l’opinion de la société, est susceptible de s’appliquer à d’autres machines et robots. "Il est donc important de déterminer comment les préférences individuelles se regroupent en préférences sociales. De plus, comme le montrent nos résultats, ces conclusions doivent également différer selon les pays", a déclaré Kaneko.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!