十行代码媲美RLHF,用社交游戏数据训练社会对齐模型
让语言模型的行为符合人类社会价值观是当前语言模型开发的重要环节。相应的训练也被称为价值对齐 (value alignment)。
当前主流的方案是 ChatGPT 所采用的 RLHF (Reinforcenment Learning from Human Feedback),也就是在人类反馈上进行强化学习。这一方案首先先训练一个 reward model (价值模型)作为人类判断的代理。代理模型在强化学习阶段为生成式语言模型的提供奖励作为监督信号。
这一方法存在如下痛点:
1.代理模型产生的奖励很容易被破除或者篡改。
2. 在训练过程中,代理模型需要和生成式模型进行不断交互,而这一过程可能非常耗时且效率不高。为了保证高质量的监督信号,代理模型不应小于生成式模型,这也就意味着在强化学习优化过程中,至少有两个比较大的模型需要交替进行推理(判断得到的奖励)和参数更新(生成式模型参数优化)。这样的设定在大规模分布式训练中可能会非常不便。
3. 价值模型本身并无和人类思考模型上明显的对应。我们脑海中并没有一个单独的打分模型,而且实际上长期维护一个固定的打分标准也非常困难。相反,我们的成长过程中价值判断的形成大部分来自每天的社交 —— 通过对相似场景的不同社交反馈的分析,我们逐渐意识到什么是会被鼓励的,什么是不允许的。这些通过大量 “社交 — 反馈 — 改进” 而逐渐积累的经验和共识成为了人类社会共同的价值判断。
最近一项来自达特茅斯,斯坦福,谷歌 DeepMind 等机构的研究表明,利用社交游戏构造的高质量数据配合简单高效的对齐算法,也许才是实现 alignment 的关键所在。
- 文章地址:https://arxiv.org/pdf/2305.16960.pdf
- 代码地址:https://github.com/agi-templar/Stable-Alignment
- 模型下载(包含基座,SFT,和对齐模型):https://huggingface.co/agi-css
作者提出一种在多智能体游戏数据上训练的对齐方法。基本思想可以理解为将训练阶段的奖励模型和生成式模型的在线交互,转移到游戏中大量自主智能体之间的离线交互之中(高采样率,提前预演博弈)。游戏环境的运行独立于训练,并且可以大量并行。监督信号从取决于代理奖励模型的性能变成取决于大量自主智能体的集体智慧。
为此作者设计了一个虚拟社会模型,称之为沙盒 Sandbox。沙盒是一个格点构成的世界,每一个格点是一个 social agent (社交体)。社交体具有记忆系统,用于存储每一次交互的问题,回答,反馈等各种信息。在社交体每一次对于问题做出回答时,都要先从记忆系统中检索并返回和问题最相关的 N 条历史问答,作为这一次回复的上下文参考。通过这一设计,社交体能在多轮互动中的立场不断更新,且更新的立场能和过去保持一定延续性。初始化阶段每一个社交体都有不同的预设立场。
将游戏数据转化为 alignment 数据
在实验中作者使用 10x10 的格点沙盒(一共 100 个社交体)进行社会仿真,且制定了一个社会规则(即所谓 Sandbox Rule):所有社交体必须通过使自己对于问题的回答更加 socially aligned (社交对齐)来给其它社交体留下好的印象。此外沙盒还部署了没有记忆的观察者,在每一次社交前后,给社交体的答复做出打分。打分基于 alignment 和 engagement 两个维度。
使用不同模型在沙盒中的模拟人类社会
作者利用沙盒 Sandbox 测试了不同大小,以及不同训练阶段的语言模型。整体而言,经过 alignment 训练的模型 (即所谓 “对齐后的模型”),比如 davinci-003, GPT-4,和 ChatGPT,能在更少的交互轮次中就能生成符合社会规范的回复。换句话说,alignment 训练的意义就在于让模型在 “开箱即用” 的场景下更加安全,而不需要特别的多轮对话引导。而未经 alignment 训练的模型,不仅需要更多的交互次数使回复达到 alignment 和 engagement 的整体最优,而且这种整体最优的上限显著低于对齐后的模型。
作者同时提出一种简便易行的对齐算法,称为 Stable Alignment (稳定对齐),用于从沙盒的历史数据中学习 alignment。稳定对齐算法在每一个 mini-batch (小批次)中进行打分调制的对比学习 —— 回复的得分越低,对比学习的边界值就会被设定的越大 —— 换句话说,稳定对齐通过不断采样小批次数据,鼓励模型生成更接近高分回复,更不接近低分回复。稳定对齐最终会收敛于 SFT 损失。作者还对稳定对齐和 SFT,RLHF 的差异进行了讨论。
作者特别强调来自沙盒 Sandbox 的游戏的数据,由于机制的设定,大量包含通过修订 (revision)而成为符合社会价值观的数据。作者通过消融实验证明这种大量自带渐进式 (step-by-step)改进的数据是稳定训练的关键。
作者还和当前主流对齐算法性能和训练稳定性进行了性能上的比较,证明稳定对齐不仅比 reward modeling 更稳定,而且在通用性能和 alignment 性能上都足以媲美 RLHF (由于 ChatGPT 使用未公开的模型,数据和算法,因此仅作为参考)。
实例生成结果:
更多细节请参考论文。
以上是十行代码媲美RLHF,用社交游戏数据训练社会对齐模型的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

Video Face Swap
使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

想象一下,一个人工智能模型,不仅拥有超越传统计算的能力,还能以更低的成本实现更高效的性能。这不是科幻,DeepSeek-V2[1],全球最强开源MoE模型来了。DeepSeek-V2是一个强大的专家混合(MoE)语言模型,具有训练经济、推理高效的特点。它由236B个参数组成,其中21B个参数用于激活每个标记。与DeepSeek67B相比,DeepSeek-V2性能更强,同时节省了42.5%的训练成本,减少了93.3%的KV缓存,最大生成吞吐量提高到5.76倍。DeepSeek是一家探索通用人工智

AI,的确正在改变数学。最近,一直十分关注这个议题的陶哲轩,转发了最近一期的《美国数学学会通报》(BulletinoftheAmericanMathematicalSociety)。围绕「机器会改变数学吗?」这个话题,众多数学家发表了自己的观点,全程火花四射,内容硬核,精彩纷呈。作者阵容强大,包括菲尔兹奖得主AkshayVenkatesh、华裔数学家郑乐隽、纽大计算机科学家ErnestDavis等多位业界知名学者。AI的世界已经发生了天翻地覆的变化,要知道,其中很多文章是在一年前提交的,而在这一

谷歌力推的JAX在最近的基准测试中性能已经超过Pytorch和TensorFlow,7项指标排名第一。而且测试并不是在JAX性能表现最好的TPU上完成的。虽然现在在开发者中,Pytorch依然比Tensorflow更受欢迎。但未来,也许有更多的大模型会基于JAX平台进行训练和运行。模型最近,Keras团队为三个后端(TensorFlow、JAX、PyTorch)与原生PyTorch实现以及搭配TensorFlow的Keras2进行了基准测试。首先,他们为生成式和非生成式人工智能任务选择了一组主流

本月初,来自MIT等机构的研究者提出了一种非常有潜力的MLP替代方法——KAN。KAN在准确性和可解释性方面表现优于MLP。而且它能以非常少的参数量胜过以更大参数量运行的MLP。比如,作者表示,他们用KAN以更小的网络和更高的自动化程度重现了DeepMind的结果。具体来说,DeepMind的MLP有大约300,000个参数,而KAN只有约200个参数。KAN与MLP一样具有强大的数学基础,MLP基于通用逼近定理,而KAN基于Kolmogorov-Arnold表示定理。如下图所示,KAN在边上具

波士顿动力Atlas,正式进入电动机器人时代!昨天,液压Atlas刚刚「含泪」退出历史舞台,今天波士顿动力就宣布:电动Atlas上岗。看来,在商用人形机器人领域,波士顿动力是下定决心要和特斯拉硬刚一把了。新视频放出后,短短十几小时内,就已经有一百多万观看。旧人离去,新角色登场,这是历史的必然。毫无疑问,今年是人形机器人的爆发年。网友锐评:机器人的进步,让今年看起来像人类的开幕式动作、自由度远超人类,但这真不是恐怖片?视频一开始,Atlas平静地躺在地上,看起来应该是仰面朝天。接下来,让人惊掉下巴

特斯拉机器人Optimus最新视频出炉,已经可以在厂子里打工了。正常速度下,它分拣电池(特斯拉的4680电池)是这样的:官方还放出了20倍速下的样子——在小小的“工位”上,拣啊拣啊拣:这次放出的视频亮点之一在于Optimus在厂子里完成这项工作,是完全自主的,全程没有人为的干预。并且在Optimus的视角之下,它还可以把放歪了的电池重新捡起来放置,主打一个自动纠错:对于Optimus的手,英伟达科学家JimFan给出了高度的评价:Optimus的手是全球五指机器人里最灵巧的之一。它的手不仅有触觉

写在前面项目链接:https://nianticlabs.github.io/mickey/给定两张图片,可以通过建立图片之间的对应关系来估计它们之间的相机姿态。通常,这些对应关系是二维到二维的,而我们估计的姿态在尺度上是不确定的。一些应用,例如随时随地实现即时增强现实,需要尺度度量的姿态估计,因此它们依赖于外部的深度估计器来恢复尺度。本文提出了MicKey,这是一个关键点匹配流程,能够够预测三维相机空间中的度量对应关系。通过学习跨图像的三维坐标匹配,我们能够在没有深度测试的情况下推断出度量相对

目标检测在自动驾驶系统当中是一个比较成熟的问题,其中行人检测是最早得以部署算法之一。在多数论文当中已经进行了非常全面的研究。然而,利用鱼眼相机进行环视的距离感知相对来说研究较少。由于径向畸变大,标准的边界框表示在鱼眼相机当中很难实施。为了缓解上述描述,我们探索了扩展边界框、椭圆、通用多边形设计为极坐标/角度表示,并定义一个实例分割mIOU度量来分析这些表示。所提出的具有多边形形状的模型fisheyeDetNet优于其他模型,并同时在用于自动驾驶的Valeo鱼眼相机数据集上实现了49.5%的mAP
