Mit der beschleunigten Entwicklung der Technologie spielt künstliche Intelligenz (KI) eine immer wichtigere Rolle im Entscheidungsprozess. Menschen verlassen sich zunehmend auf Algorithmen, um Informationen zu verarbeiten, bestimmte Aktionen zu empfehlen und sogar in ihrem Namen Maßnahmen zu ergreifen.
Aber wenn es der KI wirklich erlaubt wäre, uns bei der Entscheidungsfindung zu helfen oder sie sogar zu ersetzen, insbesondere bei Entscheidungen, die subjektive, moralische und ethische Entscheidungen betreffen, würden Sie das akzeptieren?
Kürzlich untersuchte ein Forschungsteam der Universität Hiroshima menschliche Reaktionen auf die Einführung künstlicher Intelligenz bei der Entscheidungsfindung. Durch die Untersuchung menschlicher Interaktionen mit selbstfahrenden Autos gingen sie insbesondere der Frage nach: „Ist die Gesellschaft bereit für eine ethische Entscheidungsfindung durch KI?“ 🎜🎜#Das Team veröffentlichte seine Ergebnisse am 6. Mai 2022 im Journal of Behavioral and Experimental Economics .
Im ersten Experiment zeigten die Forscher 529 menschlichen Probanden ethische Dilemmata, mit denen Autofahrer konfrontiert sein könnten. In dem von den Forschern erstellten Szenario musste ein Autofahrer entscheiden, ob er sein Auto in die eine oder andere Personengruppe rammte, und ein Zusammenstoß war unvermeidlich. Das heißt, ein Unfall wird einer Gruppe von Menschen schweren Schaden zufügen, einer anderen Gruppe jedoch das Leben retten.
Menschen im Experiment mussten die Entscheidungen eines Autofahrers bewerten, der ein Mensch oder eine künstliche Intelligenz sein konnte. Damit wollten die Forscher messen, welche Vorurteile Menschen gegenüber der ethischen Entscheidungsfindung von KI haben könnten. In ihrem zweiten Experiment beantworteten 563 menschliche Probanden einige Fragen der Forscher, um zu bestimmen, wie Menschen auf ethische Entscheidungen der KI reagieren werden, sobald sie Teil der Gesellschaft wird. In diesem Experiment gibt es zwei Situationen. Bei einem Szenario handelte es sich um eine hypothetische Regierung, die beschlossen hatte, selbstfahrenden Autos die Möglichkeit zu geben, moralische Entscheidungen zu treffen. In beiden Fällen konnten die Probanden wählen, ob sie die durch die Technologie getroffene Entscheidung unterstützen oder ablehnen möchten. Das zweite Experiment sollte die Auswirkungen zweier alternativer Wege zur Einführung künstlicher Intelligenz in die Gesellschaft testen. Die Forscher beobachteten, dass Probanden, wenn sie gebeten wurden, die moralischen Entscheidungen menschlicher oder KI-Fahrer zu bewerten, keine klare Präferenz für eines von beiden hatten. Als die Probanden jedoch gebeten wurden, ihre Meinung dazu zu äußern, ob es der KI erlaubt sein sollte, ethische Entscheidungen im Straßenverkehr zu treffen, hatten die Probanden eine stärkere Meinung zu KI-gesteuerten Autos. Die Forscher gehen davon aus, dass der Unterschied zwischen den beiden Ergebnissen auf eine Kombination zweier Faktoren zurückzuführen ist.Das erste Element ist, dass viele Menschen glauben, dass die Gesellschaft als Ganzes nicht möchte, dass künstliche Intelligenz Entscheidungen in Bezug auf Ethik und Moral trifft. Wenn sie also nach ihrer Meinung zu diesem Thema gefragt werden, werden sie von beeinflusst ihre eigenen Ideen. „
Tatsächlich verschwanden die Unterschiede zwischen der KI und den menschlichen Treibern, als die Teilnehmer explizit gebeten wurden, ihre Antworten von den Antworten der Gesellschaft zu unterscheiden“, sagte Johann Caro-Burnett. Assistenzprofessor an der Graduiertenschule.
Das zweite Element ist, ob die Konsequenzen der Zulassung der Diskussion dieses verwandten Themas bei der Einführung dieser neuen Technologie in die Gesellschaft von Land zu Land unterschiedlich sein werden. „In Bereichen, in denen die Menschen der Regierung vertrauen und über starke Regierungsinstitutionen verfügen, tragen Informationen und Entscheidungsbefugnis dazu bei, wie die Probanden die ethische Entscheidungsfindung von KI bewerten. Im Gegensatz dazu sind in Bereichen, in denen die Menschen der Regierung misstrauen und über schwache Institutionen verfügen, Entscheidungen.“ -Machende Fähigkeiten verschlechtern sich, wie Probanden die ethischen Entscheidungen künstlicher Intelligenz bewerten“, sagte Caro-Burnett. „
Wir haben festgestellt, dass die Gesellschaft Angst vor ethischen Entscheidungen durch KI hat. Die Wurzeln dieser Angst liegen jedoch nicht im Individuum. Tatsächlich kommt diese Ablehnung von KI aus der Wahrnehmung des Einzelnen als die Ansichten der Gesellschaft“, sagte Shinji Kaneko, Professor an der Graduiertenschule für Geistes- und Sozialwissenschaften der Universität Hiroshima.
Grafik | Im Durchschnitt bewerteten Menschen die ethischen Entscheidungen von KI-Fahrern nicht anders als menschliche Fahrer. Allerdings möchten die Menschen nicht, dass KI unterwegs ethische Entscheidungen trifft Voreingenommenheit. Doch auf explizite Nachfrage äußerten die Menschen ihre Abneigung gegen KI. Darüber hinaus ist mit zunehmender Diskussion und Information zu diesem Thema die Akzeptanz von KI in Industrieländern gestiegen und in Entwicklungsländern schlechter geworden.Forscher glauben, dass diese Ablehnung neuer Technologien, die vor allem auf persönliche Überzeugungen über die Meinung der Gesellschaft zurückzuführen ist, wahrscheinlich auch auf andere Maschinen und Roboter zutrifft. „Es ist daher wichtig zu bestimmen, wie sich individuelle Präferenzen zu einer sozialen Präferenz zusammenfügen. Darüber hinaus müssen, wie unsere Ergebnisse zeigen, solche Schlussfolgerungen auch von Land zu Land unterschiedlich sein“, sagte Kaneko.
Das obige ist der detaillierte Inhalt vonIst unsere Gesellschaft bereit, KI Entscheidungen treffen zu lassen?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!