训练大模型缺少高质量数据?我们找到了一种新的解决方案
数据,作为决定机器学习模型性能的三大要素之一,正在成为制约大模型发展的瓶颈。正所谓「Garbage in, garbage out」[1],无论你的算法多么优秀,你的计算资源多么强大,模型的质量都直接取决于你用来训练模型的数据。
随着各种开源大模型的涌现,数据的重要性进一步凸显,尤其是高质量的行业数据。彭博社基于开源的 GPT-3 框架打造金融大模型 BloombergGPT,证明了基于开源的大模型框架开发垂直行业大模型的可行性。事实上,面向垂直行业构建或定制闭源的轻量化大模型,也正是国内多数大模型创业公司所选择的路径。
在这个赛道,高质量的垂直行业数据、基于专业知识的微调和对齐能力至关重要——BloombergGPT 基于彭博社积累了 40 多年的金融文档构建,训练语料库的 token 超过 7000 亿[2]。
然而,获取高质量的数据并不容易。有研究指出,按照当前大模型吞噬数据的速率,高质量的公域语言数据,例如书籍、新闻报道、科学论文、维基百科等,将在 2026 年左右耗尽[3]。
公开可用的中文高质量数据资源原本就相对较少,而国内的专业数据服务还在起步阶段,进行数据收集、清洗、标注和验证需要投入大量的人力和物力。据悉,国内某高校大模型团队,收集、清洗 3TB 高质量中文数据的成本,包括下载数据带宽、数据存储资源(未清洗的原始数据约为 100TB)、清洗数据的 CPU 资源成本总计约数十万元。
随着大模型发展走向深度,要训练出满足产业需求、精度极高的垂直行业模型,一定需要更多的行业专业知识,甚至商业机密类型的私域数据。但是,出于隐私保护的要求,以及确权、收益划分存在的困难,企业往往不愿意、不能或者不敢分享他们的数据。
有没有一种方案,既可以享受数据开放和共享的好处,又能保护数据的安全和隐私呢?
隐私计算能否打破困境?
隐私计算(Privacy-preserving Computation)能够在保证数据提供方不泄露原始数据的前提下,对数据进行分析、处理和使用,被视为促进数据要素流通和交易的关键技术[4],因此,将隐私计算用于保护大模型的数据安全,似乎成了一种自然的选择。
隐私计算不是一种技术,而是一个技术体系。根据具体的实现,隐私计算主要分为以多方安全计算为代表的密码学路径、以可信执行环境为代表的机密计算路径,以及以联邦学习为代表的人工智能路径[5]。
不过,在实际应用中,隐私计算存在一些局限。例如,引入隐私计算 SDK 通常会对原有业务系统进行代码层面的修改[6]。如果是基于密码学的实现,加解密操作会让计算量呈几何级增长,同时密文计算需要更大的计算和存储资源以及通信负载[7]。
此外,涉及超大规模数据量的大模型训练场景,现有的隐私计算方案还会遭遇一些新的问题。
基于联邦学习的方案
让我们首先看看联邦学习的困难。联邦学习的核心思想是「数据不动模型动」,这种去中心化的方式保证了敏感数据待在本地,无需暴露或传输。每个设备或服务器通过向中心服务器发送模型的更新,参与到训练过程中,而中心服务器则聚合并融合这些更新,从而改进全局模型[8]。
然而,集中训练大模型已经是一件非常困难的事情,分布式的训练方法大大增加了系统的复杂性。我们还需要考虑模型在各个终端上训练时数据的异质性,以及如何安全地聚合所有设备的学习权重——对于大模型的训练,模型权重本身就是一项重要资产。此外,还必须防止攻击者从单个模型更新中推断出私有数据,而相应的防御措施会进一步增加训练开销。
基于密码学的方案
同态加密能够直接对加密数据进行计算,让数据「可用不可见」[9]。在处理或分析敏感数据并保证其机密性的场景中,同态加密是保护隐私的强大工具。这种技术不仅可以应用于大模型的训练,也能在保护用户输入(prompt)的机密性的同时进行推理。
然而,相比于使用未加密数据进行大模型的训练和推理,使用加密数据要困难得多。同时,处理加密数据需要更多的计算,会指数级地增加处理时间,并进一步增加训练大模型已经非常高的算力需求。
基于可信执行环境的方案
再来说说基于可信执行环境(TEE)的解决方案。大多 TEE 解决方案或产品都需要额外采购专门的设备,如多方安全计算节点、可信执行环境设备、密码加速卡等,无法适配已有的计算、存储资源,使得这种解决方案对许多中小企业来说并不现实。此外,目前 TEE 方案主要是基于 CPU 进行的,而大模型训练严重依靠 GPU。现阶段支持隐私计算的 GPU 方案还不成熟,反而造成了额外的风险[10]。
总的来说,在多方协作计算的场景下,很多时候要求原始数据物理意义上的「不可见」并不合理。此外,由于加密过程给数据添加了噪声,在加密数据上进行训练或推理,也会造成模型性能损失和降低模型准确性。现有的隐私计算方案无论是性能和还是在 GPU 支持方面,都无法很好地适用于大模型训练场景,也阻碍了拥有高质量数据资源的企业和机构开放和共享信息,参与到大模型产业中来。
可控计算,一种隐私计算的新范式
「当我们把大模型产业看做从数据到应用的一个链条,会发现这个链条实际上是各种数据(包括原始数据,也包括以参数形式存在于模型中的数据)在不同主体间的流通链,而这个产业的商业模式则应该构建于这些流通的数据(或模型)是可以被交易的资产基础之上。」熠智科技的 CEO 汤载阳博士表示。
「数据要素的流通涉及多个主体,而产业链的源头一定是数据提供方。也就是说,所有的业务其实都是由数据提供方来发起,只有数据提供方授权,交易才可能进行,所以应该优先保证数据提供方的权益。」
目前市场上主流的隐私保护解决方案,如多方安全计算、可信执行环境和联邦学习,都聚焦数据使用方如何处理数据,汤载阳认为,我们需要从数据提供者的角度出发去看问题。
熠智科技成立于 2019 年,定位于面向数据合作的隐私保护解决方案提供商。2021 年,公司入选了由中国信息通信研究院发起的「数据安全推进计划」(Data Security Initiative,DSI)首批参与单位,并被 DSI 认证为 9 家代表性隐私计算企业厂商之一。2022 年,熠智科技正式成为国内首个国际化自主可控隐私计算开源社区——开放群岛(Open Islands)开源社区成员单位,共同推动数据要素流通关键基础设施建设。
针对目前大模型训练的数据困境,以及更广泛的数据要素流通问题,熠智科技从实践出发,提出了一种新的隐私计算解决方案——可控计算。
「可控计算的核心关注点是以保护隐私的方式来发现和共享信息。我们解决的问题是在训练的过程中保证所用数据的安全,以及训练出来的模型不被恶意窃取。」汤载阳说。
具体说,可控计算要求数据使用方在数据提供方定义的安全域中对数据进行加工和处理。
安全域在数据流通场景中的示例
安全域是一个逻辑上的概念,指由相应的密钥和加密算法保护的存储、计算单元。安全域由数据提供方定义和约束,但相应的存储、计算资源并不由数据提供方提供。物理上,安全域在数据使用方,但是由数据提供方所控制。除了原始数据,加工、处理后的中间数据和结果数据也在相同的安全域中。
在安全域中,数据可以是密文(不可见),也可以是明文(可见),在明文情况下,由于数据可见的范围是受控的,因此确保了数据在使用过程中的安全。
复杂的密文计算导致的性能下降是限制隐私计算应用范围的一个重要因素,通过强调数据的可控,而不是一味追求不可见,可控计算解决了传统隐私计算方案对原有业务的侵入性,因此非常适合需要处理超大规模数据的大模型训练场景。
企业可以选择将自己的数据存放在多个不同的安全域中,并给这些安全域设定不同的安全等级、使用权限或白名单。对于分布式应用,也可以在多个计算机节点乃至芯片上设定安全域。
「安全域是可以串起来的,在数据流通的各个环节,数据提供方可以定义多个不同的安全域,让自己的数据只在这些安全域之间互相流转,最终这些串联的安全域就构建起了一个数据的网络。在这个网络上面,数据是可控的,对数据的流转、分析、处理等也可度量、可监管,数据的流通也可以做相应的变现。」汤载阳解释说。
基于可控计算的思想,熠智科技推出了「DataVault」。
DataVault 原理:结合 Linux 度量启动和 Linux 全盘加密技术,实现数据在安全域内的可控、防护。
DataVault 将可信平台模块 TPM(Trusted Platform Module,其核心是提供基于硬件的安全相关功能)做为信任根,保护了系统的完整性;使用 Linux 安全模块 LSM( Linux Security Modules,Linux 内核中用于支持各种计算机安全模型的框架,其与任何单独的安全实现无关)技术,使安全域内的数据只在可控范围内使用。
在此基础上,DataVault 使用 Linux 提供的全盘加密技术将数据置于安全域内,熠智科技自研了完整的密钥分发以及签名授权等密码协议,并做了大量工程上的优化,进一步保证了数据的可控。
DataVault 支持多种专用加速卡,包括不同的 CPU、GPU、FPGA 等硬件,也支持多种数据处理框架、模型训练框架,且二进制兼容。
更重要的是,它有着远低于其他隐私计算解决方案的性能损失,在大部分应用中,相比原生系统(即不用任何隐私计算技术),整体性能损失不超过 5%。
部署 DataVault 后,基于 LLaMA-65B 的评估(Evaluation)和提示评估(Prompt Evaluation)环节中,性能损失小于 1‰。
DataVault 保护数据流通和模型资产案例
现在,熠智科技已与国家超级计算中心达成合作,在超算平台上部署面向 AI 应用的隐私保护高性能计算平台。基于 DataVault,算力使用方可以在计算平台上设定安全域,确保数据从存储节点转移到计算节点的全过程都只能在安全域之间移动,不离开设定的范围。
除了确保数据在模型训练中的可控,基于 DataVault 解决方案,训练好的大模型本身作为一种数据资产,也可以得到保护并被安全地交易。
目前,对于那些希望在本地部署大模型的企业,例如金融、医疗等高敏感数据机构,苦于缺少在本地运行大模型的基础设施,包括训练大模型的高成本高性能硬件,以及部署大模型后续的运维经验。而对于构建行业大模型的企业,他们则担心如果直接将模型交付给客户,模型本身和模型参数背后积累的行业数据和专业知识存在被二次贩卖的可能。
作为对垂直行业大模型落地的一种探索,熠智科技也正与粤港澳大湾区数字经济研究院(IDEA 研究院)合作,双方联合打造了具有模型安全保护功能的大模型一体机。这种一体机内置了若干垂直行业大模型,配备大模型训推所需的基础算力资源,可以满足客户开箱即用的需求,其中熠智的可控计算组件 DataVault 可以确保这些内置模型仅在获得授权的情况下被使用,模型以及所有中间数据无法被外部环境窃取。
作为一种新的隐私计算范式,熠智科技希望可控计算能为大模型行业和数据要素流通带来改变。
「DataVault 只是一个轻量级的实现方案。随着技术和需求的变化,我们会持续更新,在数据要素流通市场有更多的尝试和贡献,也欢迎更多行业伙伴加入进来,共建可控计算社区。」汤载阳说。
以上是训练大模型缺少高质量数据?我们找到了一种新的解决方案的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

热门话题

想象一下,一个人工智能模型,不仅拥有超越传统计算的能力,还能以更低的成本实现更高效的性能。这不是科幻,DeepSeek-V2[1],全球最强开源MoE模型来了。DeepSeek-V2是一个强大的专家混合(MoE)语言模型,具有训练经济、推理高效的特点。它由236B个参数组成,其中21B个参数用于激活每个标记。与DeepSeek67B相比,DeepSeek-V2性能更强,同时节省了42.5%的训练成本,减少了93.3%的KV缓存,最大生成吞吐量提高到5.76倍。DeepSeek是一家探索通用人工智

AI,的确正在改变数学。最近,一直十分关注这个议题的陶哲轩,转发了最近一期的《美国数学学会通报》(BulletinoftheAmericanMathematicalSociety)。围绕「机器会改变数学吗?」这个话题,众多数学家发表了自己的观点,全程火花四射,内容硬核,精彩纷呈。作者阵容强大,包括菲尔兹奖得主AkshayVenkatesh、华裔数学家郑乐隽、纽大计算机科学家ErnestDavis等多位业界知名学者。AI的世界已经发生了天翻地覆的变化,要知道,其中很多文章是在一年前提交的,而在这一

谷歌力推的JAX在最近的基准测试中性能已经超过Pytorch和TensorFlow,7项指标排名第一。而且测试并不是在JAX性能表现最好的TPU上完成的。虽然现在在开发者中,Pytorch依然比Tensorflow更受欢迎。但未来,也许有更多的大模型会基于JAX平台进行训练和运行。模型最近,Keras团队为三个后端(TensorFlow、JAX、PyTorch)与原生PyTorch实现以及搭配TensorFlow的Keras2进行了基准测试。首先,他们为生成式和非生成式人工智能任务选择了一组主流

波士顿动力Atlas,正式进入电动机器人时代!昨天,液压Atlas刚刚「含泪」退出历史舞台,今天波士顿动力就宣布:电动Atlas上岗。看来,在商用人形机器人领域,波士顿动力是下定决心要和特斯拉硬刚一把了。新视频放出后,短短十几小时内,就已经有一百多万观看。旧人离去,新角色登场,这是历史的必然。毫无疑问,今年是人形机器人的爆发年。网友锐评:机器人的进步,让今年看起来像人类的开幕式动作、自由度远超人类,但这真不是恐怖片?视频一开始,Atlas平静地躺在地上,看起来应该是仰面朝天。接下来,让人惊掉下巴

本月初,来自MIT等机构的研究者提出了一种非常有潜力的MLP替代方法——KAN。KAN在准确性和可解释性方面表现优于MLP。而且它能以非常少的参数量胜过以更大参数量运行的MLP。比如,作者表示,他们用KAN以更小的网络和更高的自动化程度重现了DeepMind的结果。具体来说,DeepMind的MLP有大约300,000个参数,而KAN只有约200个参数。KAN与MLP一样具有强大的数学基础,MLP基于通用逼近定理,而KAN基于Kolmogorov-Arnold表示定理。如下图所示,KAN在边上具

特斯拉机器人Optimus最新视频出炉,已经可以在厂子里打工了。正常速度下,它分拣电池(特斯拉的4680电池)是这样的:官方还放出了20倍速下的样子——在小小的“工位”上,拣啊拣啊拣:这次放出的视频亮点之一在于Optimus在厂子里完成这项工作,是完全自主的,全程没有人为的干预。并且在Optimus的视角之下,它还可以把放歪了的电池重新捡起来放置,主打一个自动纠错:对于Optimus的手,英伟达科学家JimFan给出了高度的评价:Optimus的手是全球五指机器人里最灵巧的之一。它的手不仅有触觉

目标检测在自动驾驶系统当中是一个比较成熟的问题,其中行人检测是最早得以部署算法之一。在多数论文当中已经进行了非常全面的研究。然而,利用鱼眼相机进行环视的距离感知相对来说研究较少。由于径向畸变大,标准的边界框表示在鱼眼相机当中很难实施。为了缓解上述描述,我们探索了扩展边界框、椭圆、通用多边形设计为极坐标/角度表示,并定义一个实例分割mIOU度量来分析这些表示。所提出的具有多边形形状的模型fisheyeDetNet优于其他模型,并同时在用于自动驾驶的Valeo鱼眼相机数据集上实现了49.5%的mAP

FP8和更低的浮点数量化精度,不再是H100的“专利”了!老黄想让大家用INT8/INT4,微软DeepSpeed团队在没有英伟达官方支持的条件下,硬生生在A100上跑起FP6。测试结果表明,新方法TC-FPx在A100上的FP6量化,速度接近甚至偶尔超过INT4,而且拥有比后者更高的精度。在此基础之上,还有端到端的大模型支持,目前已经开源并集成到了DeepSpeed等深度学习推理框架中。这一成果对大模型的加速效果也是立竿见影——在这种框架下用单卡跑Llama,吞吐量比双卡还要高2.65倍。一名
