目录
偏见评估
可解释性 
人类增强
可重复性
关键要点
首页 科技周边 人工智能 实践负责任的人工智能部署:四项原则

实践负责任的人工智能部署:四项原则

Apr 22, 2023 pm 08:28 PM
人工智能 机器学习 数据隐私

人工智能 (AI) 正在改变每个行业,超过三分之一的组织现在广泛或有限地生产人工智能。但与任何技术一样,人工智能也伴随着巨大的经济和社会风险,例如不道德偏见的扩散、责任的淡化和数据隐私的侵犯。

负责任地部署人工智能的四项原则

为了避免这些风险并负责任地部署人工智能,监管政策和行业都有责任为围绕该技术工作的从业者和用户制定流程和标准。为此,道德 AI 和 ML 研究所的团队汇总了负责任的 AI 原则,以授权从业者确保这些原则通过设计嵌入到围绕生产 AI 和机器学习系统的基础设施和流程中。

本文对八项原则中的四项进行了细分:偏见评估、可解释性、人工增强和可重复性。

偏见评估

在某种意义上,人工智能模型带有固有的偏见,因为它们被设计用来区别对待相关的答案。这是因为智能的核心是识别我们在世界上看到的模式并对其采取行动的能力。在开发人工智能模型时,我们试图复制这种准确的能力,并鼓励人工智能在输入的数据中发现模式,并产生相应的偏见。例如,一个研究蛋白质化学数据的模型会天生地对那些结构可以以某种方式折叠的蛋白质产生相关的偏见,从而发现哪些蛋白质在医学的相关用例中有用。

因此,我们在公开反对人工智能偏见时应该小心谨慎。围绕人工智能偏见的话题,我们通常指的是实际上不受欢迎或不合理的偏见,例如基于受保护特征(如种族、性别或国籍)的偏见。

但为什么人工智能模型会产生不道德的偏见呢?答案取决于它输入的数据。模型最终会反映出它们在部署之前使用的训练数据中存在的偏见,所以如果训练数据不具有代表性或合并了预先存在的偏差,那么生成的模型最终将反映它们。就像他们在计算机科学里说的“无用输入无用输出”。

团队还必须创建一系列流程和程序,以正确识别围绕 AI 训练数据、模型本身的训练和评估以及模型本身运营生命周期的有效性的任何不良偏差。如果您正在部署 AI,则值得关注的一个很好的例子是道德 AI 和机器学习研究所的eXplainable AI 框架,接下来我们将对此进行更详细的介绍。

可解释性 

为了确保AI模型符合目的,相关领域专家的参与也很重要。这些人可以帮助团队确保AI模型使用正确的性能指标,而不仅仅是统计数据和准确性驱动的性能指标。值得强调的是,领域专家不仅包括技术专家,还包括与用例相关的社会科学和人文学科专家。

不过,要使其发挥作用,确保模型的预测能够由相关领域专家解释也是很重要的。然而,先进的人工智能模型通常使用最先进的深度学习技术,这可能不能简单地解释为什么会做出特定的预测。

为了克服这一困难,组织倾向于利用多种技术和工具来实现机器学习的可解释性,这些技术和工具可用于破译 AI 模型的预测。

在可解释性之后是人工智能模型的操作化。这是由相关利益相关者进行调查和监控的时候。此类 AI 模型的生命周期只有在正确部署到生产环境后才开始。一旦启动并运行,模型才会因为外部压力而遭受性能下降,无论是概念漂移还是模型运行环境的变化。

人类增强

在部署AI时,首先评估原始非自动化流程的当前需求至关重要,包括概述不良结果的风险。这将允许对过程有更深入的理解,并有助于确定哪些领域可能需要人工干预来降低风险。

例如,向职业运动员推荐膳食计划的人工智能的高影响风险因素远少于为银行自动化后端贷款审批流程的人工智能模型,这表明对前者而言,人工干预的必要性要小于后者。当团队确定AI工作流的潜在风险点时,他们可以考虑实施“ 人机回圈 ”的审查过程(HITL)。

HITL确保在流程自动化之后,仍然存在各种接触点,其中需要人工干预来检查结果,从而更容易在必要时提供纠正或撤销决策。这个过程可以包括技术专家和行业专家团队(例如,银行贷款的承销商,或膳食计划的营养师),以评估人工智能模型做出的决定,并确保它们遵守最佳实践。

可重复性

可重复性是指团队在数据点上重复运行算法并每次都得到相同结果的能力。这是负责任的 AI 的核心组成部分,因为它对于确保模型之前的预测在稍后阶段重新运行时重新发布至关重要。

自然地,再现性很难实现,这主要是由于人工智能系统内在的困难。这是因为 AI 模型的输出可能会因各种背景情况而异,例如:

  • 用于计算 AI 干扰的代码
  • 从使用的数据中学习到的权重
  • 运行代码的环境、基础架构和配置
  • 提供给模型的输入和输入结构

这是一个复杂的问题,尤其是当一个 AI 模型被大规模部署并需要考虑无数其他工具和框架时。为此,团队需要开发稳健的实践来帮助控制上述情况,并实施工具来帮助提高可重复性。

关键要点

借助上述高级原则,行业可以确保遵循最佳实践来负责任地使用人工智能。采用此类原则对于确保人工智能充分发挥其经济潜力至关重要,并且不会削弱弱势群体的权力、强化不道德的偏见或削弱问责制。相反,它可以成为我们可以用来推动增长、生产力、效率、创新和为所有人带来更大利益的技术。

以上是实践负责任的人工智能部署:四项原则的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Clothoff.io

Clothoff.io

AI脱衣机

AI Hentai Generator

AI Hentai Generator

免费生成ai无尽的。

热门文章

R.E.P.O.能量晶体解释及其做什么(黄色晶体)
4 周前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳图形设置
4 周前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.如果您听不到任何人,如何修复音频
4 周前 By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25:如何解锁Myrise中的所有内容
1 个月前 By 尊渡假赌尊渡假赌尊渡假赌

热工具

记事本++7.3.1

记事本++7.3.1

好用且免费的代码编辑器

SublimeText3汉化版

SublimeText3汉化版

中文版,非常好用

禅工作室 13.0.1

禅工作室 13.0.1

功能强大的PHP集成开发环境

Dreamweaver CS6

Dreamweaver CS6

视觉化网页开发工具

SublimeText3 Mac版

SublimeText3 Mac版

神级代码编辑软件(SublimeText3)

字节跳动剪映推出 SVIP 超级会员:连续包年 499 元,提供多种 AI 功能 字节跳动剪映推出 SVIP 超级会员:连续包年 499 元,提供多种 AI 功能 Jun 28, 2024 am 03:51 AM

本站6月27日消息,剪映是由字节跳动旗下脸萌科技开发的一款视频剪辑软件,依托于抖音平台且基本面向该平台用户制作短视频内容,并兼容iOS、安卓、Windows、MacOS等操作系统。剪映官方宣布会员体系升级,推出全新SVIP,包含多种AI黑科技,例如智能翻译、智能划重点、智能包装、数字人合成等。价格方面,剪映SVIP月费79元,年费599元(本站注:折合每月49.9元),连续包月则为59元每月,连续包年为499元每年(折合每月41.6元)。此外,剪映官方还表示,为提升用户体验,向已订阅了原版VIP

使用Rag和Sem-Rag提供上下文增强AI编码助手 使用Rag和Sem-Rag提供上下文增强AI编码助手 Jun 10, 2024 am 11:08 AM

通过将检索增强生成和语义记忆纳入AI编码助手,提升开发人员的生产力、效率和准确性。译自EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG,作者JanakiramMSV。虽然基本AI编程助手自然有帮助,但由于依赖对软件语言和编写软件最常见模式的总体理解,因此常常无法提供最相关和正确的代码建议。这些编码助手生成的代码适合解决他们负责解决的问题,但通常不符合各个团队的编码标准、惯例和风格。这通常会导致需要修改或完善其建议,以便将代码接受到应

微调真的能让LLM学到新东西吗:引入新知识可能让模型产生更多的幻觉 微调真的能让LLM学到新东西吗:引入新知识可能让模型产生更多的幻觉 Jun 11, 2024 pm 03:57 PM

大型语言模型(LLM)是在巨大的文本数据库上训练的,在那里它们获得了大量的实际知识。这些知识嵌入到它们的参数中,然后可以在需要时使用。这些模型的知识在训练结束时被“具体化”。在预训练结束时,模型实际上停止学习。对模型进行对齐或进行指令调优,让模型学习如何充分利用这些知识,以及如何更自然地响应用户的问题。但是有时模型知识是不够的,尽管模型可以通过RAG访问外部内容,但通过微调使用模型适应新的领域被认为是有益的。这种微调是使用人工标注者或其他llm创建的输入进行的,模型会遇到额外的实际知识并将其整合

七个很酷的GenAI & LLM技术性面试问题 七个很酷的GenAI & LLM技术性面试问题 Jun 07, 2024 am 10:06 AM

想了解更多AIGC的内容,请访问:51CTOAI.x社区https://www.51cto.com/aigc/译者|晶颜审校|重楼不同于互联网上随处可见的传统问题库,这些问题需要跳出常规思维。大语言模型(LLM)在数据科学、生成式人工智能(GenAI)和人工智能领域越来越重要。这些复杂的算法提升了人类的技能,并在诸多行业中推动了效率和创新性的提升,成为企业保持竞争力的关键。LLM的应用范围非常广泛,它可以用于自然语言处理、文本生成、语音识别和推荐系统等领域。通过学习大量的数据,LLM能够生成文本

为大模型提供全新科学复杂问答基准与测评体系,UNSW、阿贡、芝加哥大学等多家机构联合推出SciQAG框架 为大模型提供全新科学复杂问答基准与测评体系,UNSW、阿贡、芝加哥大学等多家机构联合推出SciQAG框架 Jul 25, 2024 am 06:42 AM

编辑|ScienceAI问答(QA)数据集在推动自然语言处理(NLP)研究发挥着至关重要的作用。高质量QA数据集不仅可以用于微调模型,也可以有效评估大语言模型(LLM)的能力,尤其是针对科学知识的理解和推理能力。尽管当前已有许多科学QA数据集,涵盖了医学、化学、生物等领域,但这些数据集仍存在一些不足。其一,数据形式较为单一,大多数为多项选择题(multiple-choicequestions),它们易于进行评估,但限制了模型的答案选择范围,无法充分测试模型的科学问题解答能力。相比之下,开放式问答

你所不知道的机器学习五大学派 你所不知道的机器学习五大学派 Jun 05, 2024 pm 08:51 PM

机器学习是人工智能的重要分支,它赋予计算机从数据中学习的能力,并能够在无需明确编程的情况下改进自身能力。机器学习在各个领域都有着广泛的应用,从图像识别和自然语言处理到推荐系统和欺诈检测,它正在改变我们的生活方式。机器学习领域存在着多种不同的方法和理论,其中最具影响力的五种方法被称为“机器学习五大派”。这五大派分别为符号派、联结派、进化派、贝叶斯派和类推学派。1.符号学派符号学(Symbolism),又称为符号主义,强调利用符号进行逻辑推理和表达知识。该学派认为学习是一种逆向演绎的过程,通过已有的

SOTA性能,厦大多模态蛋白质-配体亲和力预测AI方法,首次结合分子表面信息 SOTA性能,厦大多模态蛋白质-配体亲和力预测AI方法,首次结合分子表面信息 Jul 17, 2024 pm 06:37 PM

编辑|KX在药物研发领域,准确有效地预测蛋白质与配体的结合亲和力对于药物筛选和优化至关重要。然而,目前的研究没有考虑到分子表面信息在蛋白质-配体相互作用中的重要作用。基于此,来自厦门大学的研究人员提出了一种新颖的多模态特征提取(MFE)框架,该框架首次结合了蛋白质表面、3D结构和序列的信息,并使用交叉注意机制进行不同模态之间的特征对齐。实验结果表明,该方法在预测蛋白质-配体结合亲和力方面取得了最先进的性能。此外,消融研究证明了该框架内蛋白质表面信息和多模态特征对齐的有效性和必要性。相关研究以「S

布局 AI 等市场,格芯收购泰戈尔科技氮化镓技术和相关团队 布局 AI 等市场,格芯收购泰戈尔科技氮化镓技术和相关团队 Jul 15, 2024 pm 12:21 PM

本站7月5日消息,格芯(GlobalFoundries)于今年7月1日发布新闻稿,宣布收购泰戈尔科技(TagoreTechnology)的功率氮化镓(GaN)技术及知识产权组合,希望在汽车、物联网和人工智能数据中心应用领域探索更高的效率和更好的性能。随着生成式人工智能(GenerativeAI)等技术在数字世界的不断发展,氮化镓(GaN)已成为可持续高效电源管理(尤其是在数据中心)的关键解决方案。本站援引官方公告内容,在本次收购过程中,泰戈尔科技公司工程师团队将加入格芯,进一步开发氮化镓技术。G

See all articles