首页 > 网络3.0 > 正文

人工智能风险评估:绘制人工智能风险演变格局的竞赛

WBOY
发布: 2024-08-16 18:11:14
原创
731 人浏览过

最近的一项研究根据人工智能模型呈现的风险对它们进行了排名,揭示了广泛的行为和合规问题。这项工作旨在深入了解这些技术的法律、道德和监管挑战。结果可以指导政策制定者和公司应对安全部署人工智能的复杂性。

人工智能风险评估:绘制人工智能风险演变格局的竞赛

最近的研究根据人工智能模型呈现的风险对它们进行了排名,强调了广泛的行为和合规问题。这项工作旨在深入了解这些技术的法律、道德和监管挑战,指导政策制定者和公司应对安全部署人工智能的复杂性。

芝加哥大学副教授李博领导了这项研究,他以测试人工智能系统来识别潜在风险而闻名。他的团队与多所大学和公司合作,开发了一个名为 AIR-Bench 2024 的基准来大规模评估人工智能模型。

该研究发现了不同模型在遵守安全和监管标准方面的差异。例如,某些模型在特定类别中表现出色; Anthropic 的 Claude 3 Opus 特别擅长拒绝产生网络安全威胁,而 Google 的 Gemini 1.5 Pro 在避免产生未经同意的性图像方面表现出色。这些发现表明,某些模型更适合特定任务,具体取决于所涉及的风险。

另一方面,一些模型整体表现不佳。该研究一致将 Databricks 开发的 DBRX Instruct 模型列为各种风险类别中最差的模型。当 Databricks 在 2023 年发布该模型时,该公司承认其安全功能需要改进。

研究团队还研究了各种人工智能法规与公司政策的比较。他们的分析显示,企业政策往往比政府法规更全面,这表明监管框架可能落后于行业标准。

李波表示“政府监管还有收紧的空间。”

尽管许多公司对人工智能的使用实施了严格的政策,但研究人员发现这些政策与人工智能模型的表现之间存在差异。在一些情况下,人工智能模型未能遵守开发它们的公司制定的安全和道德准则。

这种不一致表明政策与实践之间存在差距,可能使公司面临法律和声誉风险。随着人工智能的不断发展,缩小这一差距可能变得越来越重要,以确保安全和负责任地部署该技术。

其他努力也在进行中,以更好地了解人工智能风险状况。麻省理工学院的两位研究人员 Neil Thompson 和 Peter Slattery 通过分析 43 个不同的 AI 风险框架,开发了一个 AI 风险数据库。该举措旨在帮助公司和组织评估与人工智能相关的潜在危险,特别是当该技术得到更广泛的采用时。

麻省理工学院的研究强调,某些人工智能风险比其他风险受到更多关注。例如,团队审查的 70% 以上的风险框架都集中在隐私和安全问题上。然而,解决错误信息等问题的框架较少(大约 40%)。这种差异可能表明,当组织关注更突出的问题时,某些风险可能会被忽视。

“许多公司仍处于采用人工智能的早期阶段,可能需要进一步的指导来管理这些风险,”麻省理工学院未来科技小组该项目的负责人 Peter Slattery 说。该数据库旨在让人工智能开发者和用户更清楚地了解所面临的挑战。

尽管人工智能模型能力取得了进步,例如Meta的Llama 3.1,它比其前身更强大,但在安全性方面的改进却微乎其微。李博指出,最新版本的Llama虽然能力更强,但在安全性方面并没有表现出明显的增强。

李表示,“安全性并未显着改善”,这反映出行业内面临更广泛的挑战,即优先考虑和优化人工智能模型以实现安全和负责任的部署。

以上是人工智能风险评估:绘制人工智能风险演变格局的竞赛的详细内容。更多信息请关注PHP中文网其他相关文章!

相关标签:
来源:php.cn
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板