目录
开篇
为数据沿袭编制目录
数据治理:为数据科学而生
清晰且透明 
监管后果以及其他 
译者介绍
首页 科技周边 人工智能 负责任的机器学习--'玻璃盒”方法

负责任的机器学习--'玻璃盒”方法

Apr 09, 2023 pm 12:21 PM
机器学习 api 数据

​译者 | 崔皓

审校 | 孙淑娟

开篇

机器学习并不是一项深奥的技术。正如在复杂的深度神经网络中多参数和超参数的方法只是认知计算的一种表现形式,看上去也没有那么深奥。

负责任的机器学习--'玻璃盒”方法

还存在其他一些机器学习的种类(一些涉及到深度神经网络),这类机器学习的模型结果、模型的确定以及影响模型的复杂性都表现得非常透明。

所有这些都取决于组织对其数据来源的理解程度。 

换句话说,需要了解从模型训练数据到生产数据模型过程中的一切。这也是解释、改进和改进其结果不可或缺的部分。通过这种方式让组织极大地提升模型的商业价值。

更重要的是,还进一步提高了这项技术的公平性、问责性和透明度,对于整个社会而言也更加可靠、更加完善。

Databricks营销副总裁Joel Minnick承认:“这就是为什么您需要对数据的上游和下游进行细粒度的了解,以便能够负责任地进行机器学习。”

为数据沿袭编制目录

针对模型的数据训练和数据生成会涉及到数据源、数据转换、数据集成等多项技术。在成熟的数据目录方案中,可以实现数据的实时捕获,因此可以随时监控进度从而了解模型的执行进度。“它能让我清楚了解在模型中使用数据的上下文情况。同时,你还可以知道,这些数据是从哪里来的?我们从中获得了哪些其他数据?它是什么时候产生的?这样我就可以更好地理解我应该如何使用这些数据”,数据科学家Minnick 如是说。

“数据沿袭”(记录数据源头、移动、处理过程)由元数据组成,而数据目录用来存储有关数据集。目录还使用户能够将标签和其他描述符作为附加元数据,其可以帮助追溯数据来源和建立数据信任。正如 Minnick 所描述的“数据沿袭”可以生成“API 驱动的服务”,通过这些服务连接一系列平台(包括数据科学家平台、数据工程师平台和终端用户平台)。

数据治理:为数据科学而生

数据训练和数据操作的可追溯性提升会影响到机器学习模型结果,而模型结果又和数据科学领域中的数据治理息息相关。因此,数据治理和创建、部署模型的数据科学平台存在千丝万缕的联系。“技能管理表格和文件,又能管理笔记本,同时还可以管理仪表盘。这是管理生产和消费数据的现代方式。”Minnick 评论道。 对于在笔记本中构建模型的数据科学家和通过仪表板监控输出结果的数据科学家来说,对上述说法深以为然。

清晰且透明 

尽管如此,简单地通过 API 连接数据科学工具平台,从而获取“数据沿袭”只是透明利用机器学习的一个方面。为了达到改进模型的输出目的,还需要通过数据沿袭中确定的内容来对输出模型进行校准。例如,如何让可追溯性模型数据使数据科学家“能够理解一旦一些数据出现问题,就可以分离出这部分数据,”Minnick 指出。

从逻辑上讲,可以利用这些知识了解为什么特定数据类型存在问题,从而纠正它们或通过完全删除它们来提高模型的准确性。根据 Minnick 的说法,越来越多的组织正意识到将“数据沿袭”应用到模型结果的好处,“部分原因是机器学习和人工智能在当今各个行业的兴起。它变得越来越普遍。去年,我们发布 AutoML 产品时,就是使用了“玻璃盒”来代表对数据来源的透明。”

监管后果以及其他 

一些组织还利用“数据沿袭”提供的自适应认知计算模型的能力,来增强其法规遵从能力。金融、医疗保健等行业受到高度监管,要求公司清楚地说明他们是如何为客户做出决策的。数据追溯为构建机器学习模型和理解模型结果创建了一张路线图——这对监管机构的合规性非常宝贵。

这些信息还有助于内部审计,使公司能够了解他们在哪些监管领域失职,以便可以纠正问题以防止违规。“能够向监管机构展示非常精细的数据沿袭信息,不仅是跨表格,而且可以在广泛的组织的任何地方使用这些数据,这非常重要,”Minnick 断言。当这一优势与数据来源提高模型准确性的思路不谋而合,这种方法很可能将成为部署该技术的最佳实践。

译者介绍

崔皓,51CTO社区编辑,资深架构师,拥有18年的软件开发和架构经验,10年分布式架构经验。曾任惠普技术专家。乐于分享,撰写了很多热门技术文章,阅读量超过60万。《分布式架构原理与实践》作者。

原文标题:A “Glass Box” Approach to Responsible Machine Learning​,作者:Jelani Harper​

以上是负责任的机器学习--'玻璃盒”方法的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Clothoff.io

Clothoff.io

AI脱衣机

AI Hentai Generator

AI Hentai Generator

免费生成ai无尽的。

热门文章

R.E.P.O.能量晶体解释及其做什么(黄色晶体)
4 周前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳图形设置
4 周前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.如果您听不到任何人,如何修复音频
4 周前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.聊天命令以及如何使用它们
4 周前 By 尊渡假赌尊渡假赌尊渡假赌

热工具

记事本++7.3.1

记事本++7.3.1

好用且免费的代码编辑器

SublimeText3汉化版

SublimeText3汉化版

中文版,非常好用

禅工作室 13.0.1

禅工作室 13.0.1

功能强大的PHP集成开发环境

Dreamweaver CS6

Dreamweaver CS6

视觉化网页开发工具

SublimeText3 Mac版

SublimeText3 Mac版

神级代码编辑软件(SublimeText3)

一文带您了解SHAP:机器学习的模型解释 一文带您了解SHAP:机器学习的模型解释 Jun 01, 2024 am 10:58 AM

在机器学习和数据科学领域,模型的可解释性一直是研究者和实践者关注的焦点。随着深度学习和集成方法等复杂模型的广泛应用,理解模型的决策过程变得尤为重要。可解释人工智能(ExplainableAI|XAI)通过提高模型的透明度,帮助建立对机器学习模型的信任和信心。提高模型的透明度可以通过多种复杂模型的广泛应用等方法来实现,以及用于解释模型的决策过程。这些方法包括特征重要性分析、模型预测区间估计、局部可解释性算法等。特征重要性分析可以通过评估模型对输入特征的影响程度来解释模型的决策过程。模型预测区间估计

使用C++实现机器学习算法:常见挑战及解决方案 使用C++实现机器学习算法:常见挑战及解决方案 Jun 03, 2024 pm 01:25 PM

C++中机器学习算法面临的常见挑战包括内存管理、多线程、性能优化和可维护性。解决方案包括使用智能指针、现代线程库、SIMD指令和第三方库,并遵循代码风格指南和使用自动化工具。实践案例展示了如何利用Eigen库实现线性回归算法,有效地管理内存和使用高性能矩阵操作。

美国空军高调展示首个AI战斗机!部长亲自试驾全程未干预,10万行代码试飞21次 美国空军高调展示首个AI战斗机!部长亲自试驾全程未干预,10万行代码试飞21次 May 07, 2024 pm 05:00 PM

最近,军事圈被这个消息刷屏了:美军的战斗机,已经能由AI完成全自动空战了。是的,就在最近,美军的AI战斗机首次公开,揭开了神秘面纱。这架战斗机的全名是可变稳定性飞行模拟器测试飞机(VISTA),由美空军部长亲自搭乘,模拟了一对一的空战。5月2日,美国空军部长FrankKendall在Edwards空军基地驾驶X-62AVISTA升空注意,在一小时的飞行中,所有飞行动作都由AI自主完成!Kendall表示——在过去的几十年中,我们一直在思考自主空对空作战的无限潜力,但它始终显得遥不可及。然而如今,

特斯拉机器人进厂打工,马斯克:手的自由度今年将达到22个! 特斯拉机器人进厂打工,马斯克:手的自由度今年将达到22个! May 06, 2024 pm 04:13 PM

特斯拉机器人Optimus最新视频出炉,已经可以在厂子里打工了。正常速度下,它分拣电池(特斯拉的4680电池)是这样的:官方还放出了20倍速下的样子——在小小的“工位”上,拣啊拣啊拣:这次放出的视频亮点之一在于Optimus在厂子里完成这项工作,是完全自主的,全程没有人为的干预。并且在Optimus的视角之下,它还可以把放歪了的电池重新捡起来放置,主打一个自动纠错:对于Optimus的手,英伟达科学家JimFan给出了高度的评价:Optimus的手是全球五指机器人里最灵巧的之一。它的手不仅有触觉

可解释性人工智能:解释复杂的AI/ML模型 可解释性人工智能:解释复杂的AI/ML模型 Jun 03, 2024 pm 10:08 PM

译者|李睿审校|重楼人工智能(AI)和机器学习(ML)模型如今变得越来越复杂,这些模型产生的输出是黑盒——无法向利益相关方解释。可解释性人工智能(XAI)致力于通过让利益相关方理解这些模型的工作方式来解决这一问题,确保他们理解这些模型实际上是如何做出决策的,并确保人工智能系统中的透明度、信任度和问责制来解决这个问题。本文探讨了各种可解释性人工智能(XAI)技术,以阐明它们的基本原理。可解释性人工智能至关重要的几个原因信任度和透明度:为了让人工智能系统被广泛接受和信任,用户需要了解决策是如何做出的

你所不知道的机器学习五大学派 你所不知道的机器学习五大学派 Jun 05, 2024 pm 08:51 PM

机器学习是人工智能的重要分支,它赋予计算机从数据中学习的能力,并能够在无需明确编程的情况下改进自身能力。机器学习在各个领域都有着广泛的应用,从图像识别和自然语言处理到推荐系统和欺诈检测,它正在改变我们的生活方式。机器学习领域存在着多种不同的方法和理论,其中最具影响力的五种方法被称为“机器学习五大派”。这五大派分别为符号派、联结派、进化派、贝叶斯派和类推学派。1.符号学派符号学(Symbolism),又称为符号主义,强调利用符号进行逻辑推理和表达知识。该学派认为学习是一种逆向演绎的过程,通过已有的

AI初创集体跳槽OpenAI,Ilya出走后安全团队重整旗鼓! AI初创集体跳槽OpenAI,Ilya出走后安全团队重整旗鼓! Jun 08, 2024 pm 01:00 PM

上周,在内部的离职潮和外部的口诛笔伐之下,OpenAI可谓是内忧外患:-侵权寡姐引发全球热议-员工签署「霸王条款」被接连曝出-网友细数奥特曼「七宗罪」辟谣:根据Vox获取的泄露信息和文件,OpenAI的高级领导层,包括Altman在内,非常了解这些股权回收条款,并且签署了它们。除此之外,还有一个严峻而紧迫的问题摆在OpenAI面前——AI安全。最近,五名与安全相关的员工离职,其中包括两名最著名的员工,“超级对齐”团队的解散让OpenAI的安全问题再次被置于聚光灯下。《财富》杂志报道称,OpenA

Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动 Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动 May 30, 2024 pm 01:24 PM

MetaFAIR联合哈佛优化大规模机器学习时产生的数据偏差,提供了新的研究框架。据所周知,大语言模型的训练常常需要数月的时间,使用数百乃至上千个GPU。以LLaMA270B模型为例,其训练总共需要1,720,320个GPU小时。由于这些工作负载的规模和复杂性,导致训练大模型存在着独特的系统性挑战。最近,许多机构在训练SOTA生成式AI模型时报告了训练过程中的不稳定情况,它们通常以损失尖峰的形式出现,比如谷歌的PaLM模型训练过程中出现了多达20次的损失尖峰。数值偏差是造成这种训练不准确性的根因,

See all articles