應不應該為醫療領域的人工智慧制定行為準則?

王林
發布: 2023-05-31 12:53:19
轉載
1195 人瀏覽過

生成式人工智慧的興起促使一位人工智慧倫理學家提出了一個框架,以降低在醫療領域使用這項不斷發展的技術的風險。同時,ChatGPT旗下OpenAI的執行長也敦促美國立法者開始監管人工智慧,以確保人類的安全。

應不應該為醫療領域的人工智慧制定行為準則?

上圖:產生人工智慧的興起,促使人們呼籲引入一個框架來規範其在醫療領域中的使用。

科幻作家艾薩克·阿西莫夫(Isaac Asimov)在1942年的短篇小說《Runaround》中提出了他的機器人三定律。他於1992年去世,遠在目睹近年來生成式人工智慧的興起之前。

生成式人工智慧包括ChatGPT或DALL-E等演算法,它們可以使用訓練過的資料來創建新內容,包括文字、圖像、音訊、視訊和電腦程式碼。大型語言模型(LLMs)是生成式人工智慧的關鍵組成部分,神經網路使用自監督或半監督學習,在大量未標記文字上進行訓練。

目前,生成式人工智慧的能力呈指數級增長。在醫療保健領域,它被用於通過從大量患者數據集中學習,來預測患者的結果,以令人難以置信的準確性診斷罕見疾病,並且在沒有事先學習的情況下通過了美國醫療執照考試,達到了60%的成績。

人工智慧進入醫療保健領域並取代醫生、護士和其他衛生專業人員的潛力,促使人工智慧倫理學家斯蒂芬·哈勒(Stefan Harrer)提出了一個在醫學中使用生成式人工智慧的框架。

哈勒是數位健康合作研究中心(DHCRC)的首席創新官,也是健康人工智慧聯盟(CHAI)的成員。他說,使用生成式人工智慧的問題在於,它能夠產生令人信服的虛假、不恰當或危險的內容。

史蒂芬·哈勒表示:「高效的知識檢索的本質,是提出正確的問題,而批判性思維的藝術,取決於一個人透過評估世界模型的有效性來探索答案的能力。LLMs是無法完成這些任務的。」

哈勒認為,生成式人工智慧有可能改變醫療保健領域,但目前還沒有實現。為此,他建議引入一個基於道德的監管框架,其中包含10項原則,他說,這些原則可以減輕醫療保健領域生成式人工智慧所帶來的風險:

  1. 將人工智慧設計成一種輔助工具,可以增強人類決策者的能力,但不能取代他們。
  2. 設計人工智慧,以產生關於效能、使用和影響的指標,解釋何時以及如何使用人工智慧來輔助決策,並掃描潛在的偏見。
  3. 設計基於並將堅持目標使用者群體的價值體系的人工智慧。
  4. 從概念或開發工作開始就宣告人工智慧的目的和用途。
  5. 公開用於訓練人工智慧的所有資料來源。
  6. 設計人工智慧以清晰、透明地標記人工智慧產生的內容。
  7. 定期根據資料隱私、安全和效能標準審核人工智慧。
  8. 記錄和分享審計結果,教育使用者了解關於人工智慧的能力、限制和風險,並透過重新培訓和更新演算法來提高人工智慧的效能。
  9. 在僱用人力開發人員時,確保公平工作和安全工作標準得到應用。
  10. 建立一個法律先例,明確定義何時可以將數據用於人工智慧培訓,並建立版權、責任和問責框架,管理培訓數據、人工智慧生成的內容,以及使用這些數據做出的人類決策的影響。

有趣的是,史蒂芬·哈勒的框架與ChatGPT的Open AI首席執行官薩姆·阿爾特曼(Sam Altman)的呼籲不謀而合,他呼籲美國立法者引入政府監管,以防止人工智能對人類構成的潛在風險。在馬斯克的支持下,薩姆·阿爾特曼於2015年共同創立了OpenAI,他建議政府在發布更強大的人工智慧模式之前,引入許可和測試要求。

在歐洲,人工智慧法案將於下個月在歐洲議會進行投票。如果通過,這項立法可能會禁止生物辨識監控、情緒辨識和一些用於警務的人工智慧系統。

史蒂芬·哈勒的這個相當籠統的框架,可以應用於許多存在人工智慧取代人類風險的工作場所。它似乎出現在人們(甚至是那些負責創造這項技術的人)都要求人工智慧世界暫停的時候。

醫療產業是否比其他就業產業面臨更大的風險?這樣的框架有益嗎?更重要的是,考慮到人工智慧的發展速度,它真的會降低風險嗎?也許,只有時間才能給我們這些問題的答案。

如果朋友喜歡,請關注「知新了」!

以上是應不應該為醫療領域的人工智慧制定行為準則?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

來源:sohu.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板