欧洲新人工智能法案将加强伦理道德审核
随着欧盟迈向实施人工智能法案,人工智能伦理道德问题(如偏见、透明度和可解释性)正变得越来越重要,该法案将有效规范人工智能和机器学习技术在所有行业的使用。人工智能专家表示,这是人工智能用户熟悉道德概念的好时机。
欧洲最新版的《人工智能法案》于去年推出,目前正在迅速通过审查过程,最早可能在 2023 年实施。虽然该法律仍在制定中,但欧盟委员会似乎已准备好大步监管人工智能。
例如,法律将对人工智能系统的使用设定新要求,并完全禁止某些用例。所谓的高风险人工智能系统,例如用于自动驾驶汽车的人工智能系统以及教育、移民和就业的决策支持系统,将要求用户对人工智能应用进行影响评估和审计。某些 AI 用例将在数据库中进行密切跟踪,而其他用例则需要外部审计员签字才能使用。
总部位于宾夕法尼亚州纽敦的软件工程公司 EPAM Systems 的数据分析咨询主管 Nick Carrel 表示,作为 MLOps 参与或数据科学咨询参与的一部分,对不可解释性和可解释性的需求很大。他说,欧盟的人工智能法案也在推动企业寻求关于道德人工智能的洞察力和答案。
“现在对所谓的 ML Ops 有很多需求,这是一门操作机器学习模型的科学。我们非常认为道德人工智能是这一过程的关键基础之一,” Carrel 说。“我们还有来自客户的更多要求……因为他们了解了即将在今年年底围绕人工智能系统生效的欧盟立法,他们希望做好准备。”
不可解释性和可解释性是独立但相关的概念。模型的可解释性是指人类能够理解和预测模型将做出何种决策的程度,而可解释性是指准确描述模型实际工作方式的能力。EPAM Systems 数据科学和机器学习部门的负责人 Andrey Derevyanka 说,你可以有一个没有另一个。
“想象一下,你正在做一些实验,也许是一些混合两种液体的化学实验。这个实验是可以解释的,因为,你看到你在这里做了什么。你拿了一个物品,加上另一个物品,我们得到了结果,”Derevyanka 表示。“但要让这个实验可以解释,你需要知道化学反应,你需要知道反应是如何产生的,是如何进行的,你需要知道这个过程的内部细节。”
Derevyanka 说,特别是深度学习模型可以解释但有不能说明具体情况。“你有一个黑盒子,它以某种方式运作,但你知道你不知道里面是什么,”他说。“但你可以解释:如果你给出这个输入,你就会得到这个输出。”
消除偏见
在道德 AI 方面,偏见是另一个重要主题。EPAM Systems 数据和人工智能实践主管 Umit Cakmak 表示,不可能完全消除数据中的偏见,但企业组织努力消除人工智能模型中的偏见很重要。
“这些事情必须随着时间的推移进行分析,”Cakmak 说。“这是一个过程,因为偏见已经融入历史数据。没有办法从数据中清除偏差。因此,作为一家企业,您必须设置一些特定的流程,以便您的决策随着时间的推移变得更好,这将随着时间的推移提高您的数据质量,因此随着时间的推移,您的偏见会越来越少。”
欧盟的人工智能法案将按风险对人工智能的使用进行分类
可解释性对于让利益相关者(包括内部或外部审计师,以及将声誉置于危险境地的客户和高管)相信 AI 模型不会根据有偏见的数据做出错误的决策非常重要。
Cakmak 说,文献中有许多数据偏见泄漏到自动决策系统中的例子,包括种族偏见出现在用于评估员工绩效或从简历中挑选求职者的模型中。能够展示模型如何得出结论对于展示已采取措施消除模型中的数据偏差非常重要。
Cakmak 回忆起缺乏可解释性如何导致一家医疗保健公司放弃为癌症诊断开发的人工智能系统。“人工智能在某种程度上发挥了作用,但随后该项目被取消,因为他们无法建立对算法的信任和信心,”他说。“如果你无法解释为什么会出现这种结果,那么你就无法继续治疗。”
EPAM Systems 帮助企业以可信的方式实施人工智能。该公司通常会遵循一套特定的指导方针,从如何收集数据开始,到如何准备机器学习模型,再到如何验证和解释模型。Cakmak 说,确保 AI 团队成功通过并记录这些检查或“质量门”是道德 AI 的一个重要元素。
道德与人工智能法案
波士顿咨询集团全球 GAMMA 首席人工智能道德官 Steven Mills 表示,规模最大、运营最完善的企业已经意识到需要负责任的人工智能。
然而,随着人工智能法案越来越接近成为法律,我们将看到世界各地更多的公司加速他们负责任的人工智能项目,以确保他们不会违反不断变化的监管环境和新的期望。
“有很多公司已经开始实施人工智能,并且意识到我们没有像我们想要的那样对所有潜在的意外后果抱有希望,我们需要尽快解决这个问题,” Mills说. “这是最重要的。人们并不觉得他们只是随意的以及他们如何应用它。”
以合乎道德的方式实施人工智能的压力来自组织的高层。 Mills说,在某些情况下,它来自外部投资者,他们不希望自己的投资风险因以不好的方式使用人工智能而受到损害。
他说:“我们看到了一种趋势,即投资者,无论是上市公司还是风险基金,都希望确保以负责任的方式构建人工智能。” “这可能并不明显。这对每个人来说可能并不明显。但在幕后,这些风险投资公司中的一些人正在考虑他们在哪里投入资金以确保这些初创公司以正确的方式做事。”
Carrel 表示,虽然目前《人工智能法案》的细节也很模糊,但该法律有可能明确人工智能的使用,这将使公司和消费者都受益。
“我的第一反应是这将是非常严格的,”Carrel 说,他在加入 EPAM Systems 之前在金融服务行业实施了机器学习模型。“多年来,我一直在试图突破金融服务决策的界限,突然间有一项立法出台,它会破坏我们所做的工作。
但他越是关注未决法律,就越喜欢他所看到的。
“我认为这也将逐渐增加公众对不同行业使用人工智能的信心,” Carrel 说。“立法规定你必须在欧盟注册高风险人工智能系统,这意味着你知道在某处将有一个非常清晰的清单,列出正在使用的每一个人工智能高风险系统。这为审计人员提供了强大的权力,这意味着顽皮的男孩和坏玩家将逐渐受到惩罚,希望随着时间的推移,我们会为那些想要将人工智能和机器学习用于更好的事业的人留下最佳实践——负责任的方式。”
以上是欧洲新人工智能法案将加强伦理道德审核的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

热门话题

在机器学习和数据科学领域,模型的可解释性一直是研究者和实践者关注的焦点。随着深度学习和集成方法等复杂模型的广泛应用,理解模型的决策过程变得尤为重要。可解释人工智能(ExplainableAI|XAI)通过提高模型的透明度,帮助建立对机器学习模型的信任和信心。提高模型的透明度可以通过多种复杂模型的广泛应用等方法来实现,以及用于解释模型的决策过程。这些方法包括特征重要性分析、模型预测区间估计、局部可解释性算法等。特征重要性分析可以通过评估模型对输入特征的影响程度来解释模型的决策过程。模型预测区间估计

通俗来说,机器学习模型是一种数学函数,它能够将输入数据映射到预测输出。更具体地说,机器学习模型就是一种通过学习训练数据,来调整模型参数,以最小化预测输出与真实标签之间的误差的数学函数。在机器学习中存在多种模型,例如逻辑回归模型、决策树模型、支持向量机模型等,每一种模型都有其适用的数据类型和问题类型。同时,不同模型之间存在着许多共性,或者说有一条隐藏的模型演化的路径。将联结主义的感知机为例,通过增加感知机的隐藏层数量,我们可以将其转化为深度神经网络。而对感知机加入核函数的话就可以转化为SVM。这一

本文将介绍如何通过学习曲线来有效识别机器学习模型中的过拟合和欠拟合。欠拟合和过拟合1、过拟合如果一个模型对数据进行了过度训练,以至于它从中学习了噪声,那么这个模型就被称为过拟合。过拟合模型非常完美地学习了每一个例子,所以它会错误地分类一个看不见的/新的例子。对于一个过拟合的模型,我们会得到一个完美/接近完美的训练集分数和一个糟糕的验证集/测试分数。略有修改:"过拟合的原因:用一个复杂的模型来解决一个简单的问题,从数据中提取噪声。因为小数据集作为训练集可能无法代表所有数据的正确表示。"2、欠拟合如

20世纪50年代,人工智能(AI)诞生。当时研究人员发现机器可以执行类似人类的任务,例如思考。后来,在20世纪60年代,美国国防部资助了人工智能,并建立了实验室进行进一步开发。研究人员发现人工智能在许多领域都有用武之地,例如太空探索和极端环境中的生存。太空探索是对宇宙的研究,宇宙涵盖了地球以外的整个宇宙空间。太空被归类为极端环境,因为它的条件与地球不同。要在太空中生存,必须考虑许多因素,并采取预防措施。科学家和研究人员认为,探索太空并了解一切事物的现状有助于理解宇宙的运作方式,并为潜在的环境危机

C++中机器学习算法面临的常见挑战包括内存管理、多线程、性能优化和可维护性。解决方案包括使用智能指针、现代线程库、SIMD指令和第三方库,并遵循代码风格指南和使用自动化工具。实践案例展示了如何利用Eigen库实现线性回归算法,有效地管理内存和使用高性能矩阵操作。

译者|李睿审校|重楼人工智能(AI)和机器学习(ML)模型如今变得越来越复杂,这些模型产生的输出是黑盒——无法向利益相关方解释。可解释性人工智能(XAI)致力于通过让利益相关方理解这些模型的工作方式来解决这一问题,确保他们理解这些模型实际上是如何做出决策的,并确保人工智能系统中的透明度、信任度和问责制来解决这个问题。本文探讨了各种可解释性人工智能(XAI)技术,以阐明它们的基本原理。可解释性人工智能至关重要的几个原因信任度和透明度:为了让人工智能系统被广泛接受和信任,用户需要了解决策是如何做出的

机器学习是人工智能的重要分支,它赋予计算机从数据中学习的能力,并能够在无需明确编程的情况下改进自身能力。机器学习在各个领域都有着广泛的应用,从图像识别和自然语言处理到推荐系统和欺诈检测,它正在改变我们的生活方式。机器学习领域存在着多种不同的方法和理论,其中最具影响力的五种方法被称为“机器学习五大派”。这五大派分别为符号派、联结派、进化派、贝叶斯派和类推学派。1.符号学派符号学(Symbolism),又称为符号主义,强调利用符号进行逻辑推理和表达知识。该学派认为学习是一种逆向演绎的过程,通过已有的

MetaFAIR联合哈佛优化大规模机器学习时产生的数据偏差,提供了新的研究框架。据所周知,大语言模型的训练常常需要数月的时间,使用数百乃至上千个GPU。以LLaMA270B模型为例,其训练总共需要1,720,320个GPU小时。由于这些工作负载的规模和复杂性,导致训练大模型存在着独特的系统性挑战。最近,许多机构在训练SOTA生成式AI模型时报告了训练过程中的不稳定情况,它们通常以损失尖峰的形式出现,比如谷歌的PaLM模型训练过程中出现了多达20次的损失尖峰。数值偏差是造成这种训练不准确性的根因,
