生成式人工智能的兴起促使一位人工智能伦理学家提出了一个框架,以降低在医疗领域使用这项不断发展的技术的风险。与此同时,ChatGPT旗下OpenAI的首席执行官也敦促美国立法者开始监管人工智能,以保障人类的安全。
上图:生成人工智能的兴起,促使人们呼吁引入一个框架来规范其在医疗领域中的使用。
科幻作家艾萨克·阿西莫夫(Isaac Asimov)在1942年的短篇小说《Runaround》中提出了他的机器人三定律。他于1992年去世,远在目睹近年来生成式人工智能的兴起之前。
生成式人工智能包括ChatGPT或DALL-E等算法,它们可以使用训练过的数据来创建新内容,包括文本、图像、音频、视频和计算机代码。大型语言模型(LLMs)是生成式人工智能的关键组成部分,神经网络使用自监督或半监督学习,在大量未标记文本上进行训练。
目前,生成式人工智能的能力呈指数级增长。在医疗保健领域,它被用于通过从大量患者数据集中学习,来预测患者的结果,以令人难以置信的准确性诊断罕见疾病,并且在没有事先学习的情况下通过了美国医疗执照考试,达到了60%的成绩。
人工智能进入医疗保健领域并取代医生、护士和其他卫生专业人员的潜力,促使人工智能伦理学家斯蒂芬·哈勒(Stefan Harrer)提出了一个在医学中使用生成式人工智能的框架。
哈勒是数字健康合作研究中心(DHCRC)的首席创新官,也是健康人工智能联盟(CHAI)的成员。他说,使用生成式人工智能的问题在于,它能够生成令人信服的虚假、不恰当或危险的内容。
斯蒂芬·哈勒表示:“高效的知识检索的本质,是提出正确的问题,而批判性思维的艺术,取决于一个人通过评估世界模型的有效性来探索答案的能力。LLMs是无法完成这些任务的。”
哈勒认为,生成式人工智能有可能改变医疗保健领域,但目前还没有实现。为此,他建议引入一个基于道德的监管框架,其中包含10项原则,他说,这些原则可以减轻医疗保健领域生成式人工智能所带来的风险:
有趣的是,斯蒂芬·哈勒的框架与ChatGPT的Open AI首席执行官萨姆·阿尔特曼(Sam Altman)的呼吁不谋而合,他呼吁美国立法者引入政府监管,以防止人工智能对人类构成的潜在风险。在埃隆·马斯克的支持下,萨姆·阿尔特曼于2015年共同创立了OpenAI,他建议政府在发布更强大的人工智能模型之前,引入许可和测试要求。
在欧洲,人工智能法案将于下个月在欧洲议会进行投票。如果通过,这项立法可能会禁止生物识别监控、情绪识别和一些用于警务的人工智能系统。
斯蒂芬·哈勒的这个相当笼统的框架,可以应用于许多存在人工智能取代人类风险的工作场所。它似乎出现在人们(甚至是那些负责创造这项技术的人)都要求人工智能世界暂停的时候。
医疗行业是否比其他就业行业面临更大的风险呢?这样的框架有益吗?更重要的是,考虑到人工智能的发展速度,它真的会降低风险吗?也许,只有时间才能给我们这些问题的答案。
如果朋友们喜欢,敬请关注“知新了了”!
以上是应不应该为医疗领域的人工智能制定行为准则?的详细内容。更多信息请关注PHP中文网其他相关文章!