テクノロジーの発展が加速するにつれ、意思決定プロセスにおいて人工知能 (AI) が果たす役割はますます重要になっています。人間は、情報を処理し、特定の行動を推奨し、さらには人間に代わって行動を起こすためにアルゴリズムにますます依存しています。
しかし、もし AI が私たちの意思決定、特に主観的、道徳的、倫理的な決定を伴う意思決定を本当に助けたり、行ったりしてくれるとしたら、あなたはそれを受け入れることができますか?
最近、広島大学の研究チームは、人工知能による意思決定の導入に対する人間の反応を調査しました。具体的には、自動運転車と人間の相互作用を研究することで、「社会は AI による倫理的意思決定を受け入れる準備ができているか?」という問題を調査しました。
チームは、その結果をジャーナル・オブ・行動および実験経済学、2022 年 5 月 6 日。
最初の実験では、研究者は529人の被験者に、ドライバーが直面する可能性のある倫理的ジレンマを提示しました。研究者らが作成したシナリオでは、自動車の運転手は自分の車をあるグループに衝突させるか、別のグループに衝突させるかを決定する必要があり、衝突は避けられなかった。つまり、事故はあるグループの人々に重大な損害を与えますが、別のグループの人々の命を救います。
実験の被験者は、人間または人工知能の可能性がある車の運転手の判断を評価する必要がありました。これにより研究者らは、AI の倫理的意思決定に対して人々が持つ可能性のあるバイアスを測定することを目的としました。
2 番目の実験では、563 人の被験者が、AI が人工物にどのように反応するかについての人々の認識を決定するために、研究者が提起した多くの関連する質問に答えました。知能が社会の一部になった後の倫理的意思決定はどうなるのでしょうか?
この実験には 2 つの状況があります。 1 つは、自動運転車に道徳的決定を行うことを許可することを決定した仮想政府に関するもので、もう 1 つのシナリオでは、自動運転車に道徳的決定を行うことを許可するかどうかについて被験者に「投票」を許可しました。どちらの場合も、被験者はテクノロジーによる決定を支持するか反対するかを選択できます。
2 番目の実験は、人工知能を社会に導入する 2 つの代替方法の効果をテストするように設計されました。
研究者らは、被験者が人間またはAIドライバーの道徳的決定を評価するように求められたとき、被験者はどちらに対しても明確な好みを持っていないことを観察しました。しかし、AIに路上での倫理的な意思決定を許可すべきかどうかについて被験者に意見を求めたところ、被験者はAI駆動の自動車についてより強い意見を持った。
#研究者らは、2 つの結果の違いは 2 つの要因の組み合わせによるものであると考えています。
最初の要素は、多くの人が社会全体が倫理や道徳に関連する意思決定を人工知能に行われることを望まないと信じているということです。そのため、この問題についての意見を尋ねられると、彼らは自分自身の意見に影響されることになります。アイデア。 「
実際、参加者に自分の答えと社会の答えを区別するよう明示的に求めたところ、AI と人間のドライバーの違いはなくなりました。」 広島大学大学院人文社会科学研究科 助教 ヨハン・カロ氏バーネット氏は語った。
2 番目の要素は、この新しいテクノロジーを社会に導入する際に、この関連トピックについて議論した結果が国によって異なるかどうかです。 「人々が政府を信頼し、強力な政府機関がある地域では、情報と意思決定の力が被験者が AI の倫理的意思決定を評価する方法に貢献します。対照的に、人々が政府を信頼せず、政府機関が弱い地域では、意思決定が重要になります。」人工知能の倫理的決定を被験者がどのように評価するか」とカロ・バーネット氏は語った。 「
私たちは、社会が AI の倫理的意思決定に対して恐怖を抱いていることを発見しました。しかし、この恐怖の根源は個人に内在するものではありません。実際、AI に対するこの拒絶は、個人が信じているものから来ています。」 」と広島大学大学院人文社会科学研究科教授の金子慎二氏は言う。
#グラフィック | 平均して、人々は AI ドライバーの倫理的決定を人間のドライバーと何ら変わらないと評価しました。しかし、人々は AI が道路上で倫理的な決定を下すことを望んでいません
そのため、明示的に求められない限り、人々は AI の倫理的決定に対して偏見を持っている兆候を示しません。しかし、はっきりと尋ねると、人々は AI に対する嫌悪感を表明しました。さらに、このテーマに関する議論や情報の増加により、先進国では AI の受け入れが増加していますが、発展途上国では AI の受け入れが悪化しています。
研究者らは、この新技術の拒否は主に社会の意見に対する個人的な信念によるものであり、他の機械やロボットにも当てはまる可能性が高いと考えています。 「したがって、個人の好みが社会的な好みにどのように集約されるかを判断することが重要です。さらに、私たちの結果が示すように、そのような結論は国によっても異なるはずです」と金子氏は述べた。
以上が私たちの社会は AI に意思決定をさせる準備ができているでしょうか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。