隨著科技的加速發展,人工智慧(AI)在決策過程中發揮越來越重要的作用。人類越來越依賴演算法來處理資訊、推薦某些行為,甚至代表他們採取行動。
但是,如果真的讓 AI 幫助、甚至取代我們來做決策,尤其是涉及主觀的、道德倫理相關的決策,你能接受嗎?
近日,一個來自廣島大學的研究小組探討了人類對引入人工智慧決策的反應。具體來說,他們透過研究人類與自動駕駛汽車的互動,探討了一個問題:「社會準備好接受人工智慧道德決策了嗎?」
##該團隊於2022 年5 月6 日在 Journal of Behavioral and Experimental Economics 上發表了他們的研究結果。 在第一個實驗中,研究人員向 529 名人類受試者展示了駕駛員可能面臨的道德兩難。在研究人員創建的場景中,汽車駕駛員必須決定將汽車撞向一群人還是另一群人,而且碰撞是不可避免的。也就是說,這起事故將對一組人造成嚴重傷害,但會挽救另一組人的生命。 實驗中的人類受試者必須對汽車駕駛者的決定進行評分,駕駛者有可能是人類,也有可能是人工智慧。以此,研究人員旨在衡量人們可能對人工智慧道德決策產生的偏見。 在他們的第二個實驗中,563 名人類受試者回答了研究人員提出的一些相關問題,以確定人們對AI成為社會的一部分後,對人工智慧倫理決策有何反應。 在這個實驗中,有兩種情況。其中一個涉及一個假設的政府,該政府已經決定允許自動駕駛汽車做出道德決定;另一個場景允許受試者「投票」是否允許自動駕駛汽車做出道德決定。在這兩種情況下,受試者都可以選擇支持或反對技術所做的決定。 第二個實驗旨在測試將人工智慧引入社會的兩種替代方式的效果。 研究人員觀察到,當受試者被要求評估人類或人工智慧駕駛員的道德決定時,他們對兩者都沒有明確的偏好。然而,當受試者被問到是否應該允許人工智慧在道路上做出道德決定的明確意見時,受試者對人工智慧駕駛的汽車有更強烈的意見。 研究人員認為,這兩個結果之間的差異是由兩個因素共同造成的。 第一個要素是,許多人認為整個社會不希望人工智慧做與倫理道德相關的決策,因此當被問及對此事的看法時,他們會被自己的觀念所影響。 「事實上,當參與者被明確要求將他們的答案與社會的答案區分開來時,人工智慧和人類駕駛者之間的差異就會消失。」廣島大學人文社會科學研究生院助理教授Johann Caro-Burnett 說。 第二個要素是,在將這項新技術引入社會時,是否允許討論該相關主題的結果,因國家而異。 「在人們信任政府並擁有強大政府機構的地區,資訊和決策權有助於受試者評估人工智慧道德決策的方式。相較之下,在人們不信任政府且制度薄弱的地區,決策能力惡化了受試者評估人工智慧道德決策的方式。」Caro-Burnett 說。 「我們發現,社會對AI 道德決策存在恐懼。然而,這種恐懼的根源並不是個人所固有的。事實上,這種對人工智慧的拒絕來自於個人認為是社會的看法。 」廣島大學人文社會科學研究生院教授Shinji Kaneko 說。 圖 | 平均而言,人們對 AI 駕駛員的道德決策的評價與人類駕駛員的評價沒有區別。但是,人們並不想讓人工智慧在路上做出道德決定 因此,當沒有被明確詢問時,人們不會表現出任何對人工智慧道德決策有偏見的跡象。然而,當被明確詢問時,人們表現出對人工智慧的厭惡。此外,在增加了關於該主題的討論和資訊的情況下,人工智慧的接受度在已開發國家有所提高,而在發展中國家則惡化。研究人員認為,這種對新技術的拒絕,主要是由於個人對社會意見的信念,很可能適用於其他機器和機器人。 「因此,重要的是要確定個人偏好如何匯總為一種社會偏好。此外,正如我們的結果所表明的那樣,這類結論在各國之間也必須有所不同。」Kaneko 說。
以上是讓AI做決策,我們的社會準備好了嗎?的詳細內容。更多資訊請關注PHP中文網其他相關文章!