生成式人工智慧的興起促使一位人工智慧倫理學家提出了一個框架,以降低在醫療領域使用這項不斷發展的技術的風險。同時,ChatGPT旗下OpenAI的執行長也敦促美國立法者開始監管人工智慧,以確保人類的安全。
上圖:產生人工智慧的興起,促使人們呼籲引入一個框架來規範其在醫療領域中的使用。
科幻作家艾薩克·阿西莫夫(Isaac Asimov)在1942年的短篇小說《Runaround》中提出了他的機器人三定律。他於1992年去世,遠在目睹近年來生成式人工智慧的興起之前。
生成式人工智慧包括ChatGPT或DALL-E等演算法,它們可以使用訓練過的資料來創建新內容,包括文字、圖像、音訊、視訊和電腦程式碼。大型語言模型(LLMs)是生成式人工智慧的關鍵組成部分,神經網路使用自監督或半監督學習,在大量未標記文字上進行訓練。
目前,生成式人工智慧的能力呈指數級增長。在醫療保健領域,它被用於通過從大量患者數據集中學習,來預測患者的結果,以令人難以置信的準確性診斷罕見疾病,並且在沒有事先學習的情況下通過了美國醫療執照考試,達到了60%的成績。
人工智慧進入醫療保健領域並取代醫生、護士和其他衛生專業人員的潛力,促使人工智慧倫理學家斯蒂芬·哈勒(Stefan Harrer)提出了一個在醫學中使用生成式人工智慧的框架。
哈勒是數位健康合作研究中心(DHCRC)的首席創新官,也是健康人工智慧聯盟(CHAI)的成員。他說,使用生成式人工智慧的問題在於,它能夠產生令人信服的虛假、不恰當或危險的內容。
史蒂芬·哈勒表示:「高效的知識檢索的本質,是提出正確的問題,而批判性思維的藝術,取決於一個人透過評估世界模型的有效性來探索答案的能力。LLMs是無法完成這些任務的。」
哈勒認為,生成式人工智慧有可能改變醫療保健領域,但目前還沒有實現。為此,他建議引入一個基於道德的監管框架,其中包含10項原則,他說,這些原則可以減輕醫療保健領域生成式人工智慧所帶來的風險:
有趣的是,史蒂芬·哈勒的框架與ChatGPT的Open AI首席執行官薩姆·阿爾特曼(Sam Altman)的呼籲不謀而合,他呼籲美國立法者引入政府監管,以防止人工智能對人類構成的潛在風險。在馬斯克的支持下,薩姆·阿爾特曼於2015年共同創立了OpenAI,他建議政府在發布更強大的人工智慧模式之前,引入許可和測試要求。
在歐洲,人工智慧法案將於下個月在歐洲議會進行投票。如果通過,這項立法可能會禁止生物辨識監控、情緒辨識和一些用於警務的人工智慧系統。
史蒂芬·哈勒的這個相當籠統的框架,可以應用於許多存在人工智慧取代人類風險的工作場所。它似乎出現在人們(甚至是那些負責創造這項技術的人)都要求人工智慧世界暫停的時候。
醫療產業是否比其他就業產業面臨更大的風險?這樣的框架有益嗎?更重要的是,考慮到人工智慧的發展速度,它真的會降低風險嗎?也許,只有時間才能給我們這些問題的答案。
如果朋友喜歡,請關注「知新了」!
以上是應不應該為醫療領域的人工智慧制定行為準則?的詳細內容。更多資訊請關注PHP中文網其他相關文章!