幻觉?马斯克TruthGPT也搞不定!OpenAI联合创始人直言很复杂
上个月,马斯克疯狂呼吁叫停超级AI研发6个月。
还没等多久,老马就坐不住了,直接官宣推出一个名为TruthGPT的AI平台。
马斯克曾表示,TruthGPT将是一个「最大的求真人工智能」,它将试图理解宇宙的本质。
他强调,一个关心理解宇宙的人工智能不太可能灭绝人类,因为我们是宇宙中有趣的一部分。
然而,「幻觉」,到现在还没有哪个语言模型能够搞定。
最近,OpenAI联合创始人便解释为什么TruthGPT的远大理想的实现是如此地困难。
TruthGPT理想是泡沫?
马斯克的X.AI想要建立的TruthGPT,是一种诚实的语言模型。
这么做,直接将矛头对准ChatGPT。
因为,此前,像ChatGPT这样的AI系统经常产生错误输出等经典幻觉案例,甚至支持某些政治信仰的报道。
虽然ChatGPT可以让用户更多控制语言模型去解决问题,但「幻觉」仍然是OpenAI、谷歌以及未来马斯克的人工智能公司必须处理的核心问题。
OpenAI联合创始人兼研究员John Schulman在他的演讲「RL和Truthfulness – Towards TruthGPT」中讨论了这些挑战以及如何应对这些挑战。
为啥有「幻觉」?
根据Schulman的说法,幻觉大致可以分为两种类型:
1. 「模式完成行为」,即语言模型无法表达自己的不确定性,无法质疑提示中的前提,或者继续之前犯的错误。
2. 模型猜测错误。
由于语言模型代表一种知识图谱,其中包含来自其自身网络中训练数据的事实,因此微调可以理解为学习一个函数,该函数在该知识图谱上运行并输出token预测。
例如,微调数据集可能包含「星球大战的类型是什么?」这个问题,以及答案「科幻」。
如果这些信息已经在原始训练数据中,即它是知识图谱的一部分,那么模型不会学习新信息,而是学习一种行为——输出正确答案。这种微调也被称为「行为克隆」。
但问题是,如果问题是关于「Han Solo的衍生电影的名字是什么」出现在微调数据集中。
但如果答案「Solo」不是原始训练数据集的一部分(也不是知识图谱的一部分),即使网络不知道答案,它也会学习回答。
使用实际上正确但不在知识图谱中的答案进行微调,从而教会网络编造答案——即产生「幻觉」。相反,用不正确的答案进行训练会导致网络隐瞒信息。
因此,理想情况下,行为克隆应始终基于网络知识,但创建或评估数据集的人类工作者来说,通常不知道这种知识,例如指令调优。
根据Schulman的说法,当其他模型创建微调数据集时也存在这个问题,就像羊驼公式的情况一样。
他预测,具有较小知识图谱的较小网络,不仅会学会使用ChatGPT的输出给出答案和遵循指令,而且学会更频繁地产生幻觉。
OpenAI如何打击幻觉?
首先,对于简单的问题来说,语言模型大部分情况下能预测自己是否知道答案,还能表达不确定性。
因此,Schulman表示,微调数据集的时候,必须得让模型学会怎么表达不确定、怎么应对前提被更改的情况,以及错误被承认的情况。
要把这些情况的实例喂给模型,让它们学习。
但是模型在时机方面还是欠练,也就是说,它们并不知道该何时执行这些操作。
Schulman表示,这就是强化学习(RL)该出场的地方了。比如,基于人类反馈的强化学习(Reinforcement Learning with Human Feedback,RLHF)。
应用RL,模型就可以学习「行为边界」,学会何时做出何种行为。
而另一个难题,则是检索和引用来源的能力。
问题在于,有了复制行为的能力和RLHF,为什么ChatGPT还会产生幻觉?
原因在于问题本身的难易。
虽然上述方法对于简短的问题和答案效果不错,但对于ChatGPT中常见的长格式设置就会出现其他问题了。
一方面,完全错误的答案也不太可能,大部分情况都是错的和对的混在一起。
在极端情况下,可能就是100行代码中的一个错误而已。
在其他情况下,这些信息在传统意义上并不能说是错的,而是有误导性的。因此,在像ChatGPT这样的系统中,人们很难根据信息量或者正确性来衡量输出的质量。
但这种衡量对于旨在训练复杂行为边界的RL算法却非常重要。
目前,OpenAI依托于RLHF的基于排名的奖励模型,该模型能够预测它认为两个答案中哪个更好,但不会给出有效的信号来明确哪个答案好了多少、信息量大了多少或正确了多少。
Schulman表示,它缺乏向模型提供反馈以学习精细行为边界的能力。而这种精细的行为边界,才是有可能解决幻觉的道路。
此外,此过程还会因为RLHF标记过程中的人为出错而变得更加复杂。
因此,虽然Schulman将RL视作减少幻觉的重要方式之一,但他认为仍然存在许多还没解决的问题。
除了前面提到的奖励模型究竟需要什么样子才能引导正确的行为之外,RLHF目前仅依赖于人类的判准。
这可能会使知识的生成变得更加困难。因为对未来的预测有时会导致不那么令人信服的表述。
然而,Schulman认为,知识的生成是语言模型的下一个重要步骤,同时,他认为对未来的预测和给出推理规则等问题的理论构建,是亟待解决的下一类开放性问题。
Schulman说,一种可能的解决方案是,用其他AI模型来训练语言模型。
OpenAI也认为,这种方法对于AI对齐来说,很有意义。
ChatGPT架构师
作为ChatGPT架构师,John Schulman早在2015年还在读博士学位的他,就加入OpenAI成为联合创始人之一。
在一次采访中,Schulman解释了自己加入OpenAI的原因:
我想做人工智能方面的研究,我认为OpenAI这家公司的使命雄心勃勃,并且致力打造通用人工智能。
尽管,在当时谈论AGI似乎有些疯狂,但我认为开始考虑它是合理的,我希望在一个地方谈论AGI是可以接受的。
另外,据Schulman透露,OpenAI将人类反馈强化学习这一方法 (RLHF)引入ChatGPT的想法可以追溯到17年了。
当时,也是OpenAI的成员,曾发表了一篇论文「从人类偏好中进行深度强化学习」就提到了这一方法。
论文地址:https://arxiv.org/pdf/1706.03741.pdf
OpenAI安全团队之所以致力于这项工作,是因为想让自己的模型符合人类的偏好ーー试图让模型真正倾听人类意见,并试图做人类想做的事情。
在GPT-3完成训练的时候,然后Schulman决定加入这股潮流,因为他看到了整个研究方向的潜力。
当被问到第一次使用ChatGPT时,第一反应是什么的时候,Schulman的话语中透露着「无感」。
还记得去年ChatGPT横空出世,让许多人瞬间炸脑。
而在OpenAI内部没有人对ChatGPT感到兴奋。因为发布的ChatGPT是一个基于GPT-3.5较弱的模型,那时候同事们在玩转GPT-4了。
所以在那个时候,OpenAI没有人对ChatGPT感到兴奋,因为有这么一个更强大,更聪明的模型已经被训练过了。
对于未来人工智能下一前沿领域看法,Schulman称,AI在更艰难的任务上不断进步,然后,问题就来了,人类应该做些什么,在哪些任务下,人类可以在大模型帮助下有更大影响力,做更多的工作。
以上是幻觉?马斯克TruthGPT也搞不定!OpenAI联合创始人直言很复杂的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

热门话题

想象一下,一个人工智能模型,不仅拥有超越传统计算的能力,还能以更低的成本实现更高效的性能。这不是科幻,DeepSeek-V2[1],全球最强开源MoE模型来了。DeepSeek-V2是一个强大的专家混合(MoE)语言模型,具有训练经济、推理高效的特点。它由236B个参数组成,其中21B个参数用于激活每个标记。与DeepSeek67B相比,DeepSeek-V2性能更强,同时节省了42.5%的训练成本,减少了93.3%的KV缓存,最大生成吞吐量提高到5.76倍。DeepSeek是一家探索通用人工智

AI,的确正在改变数学。最近,一直十分关注这个议题的陶哲轩,转发了最近一期的《美国数学学会通报》(BulletinoftheAmericanMathematicalSociety)。围绕「机器会改变数学吗?」这个话题,众多数学家发表了自己的观点,全程火花四射,内容硬核,精彩纷呈。作者阵容强大,包括菲尔兹奖得主AkshayVenkatesh、华裔数学家郑乐隽、纽大计算机科学家ErnestDavis等多位业界知名学者。AI的世界已经发生了天翻地覆的变化,要知道,其中很多文章是在一年前提交的,而在这一

波士顿动力Atlas,正式进入电动机器人时代!昨天,液压Atlas刚刚「含泪」退出历史舞台,今天波士顿动力就宣布:电动Atlas上岗。看来,在商用人形机器人领域,波士顿动力是下定决心要和特斯拉硬刚一把了。新视频放出后,短短十几小时内,就已经有一百多万观看。旧人离去,新角色登场,这是历史的必然。毫无疑问,今年是人形机器人的爆发年。网友锐评:机器人的进步,让今年看起来像人类的开幕式动作、自由度远超人类,但这真不是恐怖片?视频一开始,Atlas平静地躺在地上,看起来应该是仰面朝天。接下来,让人惊掉下巴

本月初,来自MIT等机构的研究者提出了一种非常有潜力的MLP替代方法——KAN。KAN在准确性和可解释性方面表现优于MLP。而且它能以非常少的参数量胜过以更大参数量运行的MLP。比如,作者表示,他们用KAN以更小的网络和更高的自动化程度重现了DeepMind的结果。具体来说,DeepMind的MLP有大约300,000个参数,而KAN只有约200个参数。KAN与MLP一样具有强大的数学基础,MLP基于通用逼近定理,而KAN基于Kolmogorov-Arnold表示定理。如下图所示,KAN在边上具

特斯拉机器人Optimus最新视频出炉,已经可以在厂子里打工了。正常速度下,它分拣电池(特斯拉的4680电池)是这样的:官方还放出了20倍速下的样子——在小小的“工位”上,拣啊拣啊拣:这次放出的视频亮点之一在于Optimus在厂子里完成这项工作,是完全自主的,全程没有人为的干预。并且在Optimus的视角之下,它还可以把放歪了的电池重新捡起来放置,主打一个自动纠错:对于Optimus的手,英伟达科学家JimFan给出了高度的评价:Optimus的手是全球五指机器人里最灵巧的之一。它的手不仅有触觉

目标检测在自动驾驶系统当中是一个比较成熟的问题,其中行人检测是最早得以部署算法之一。在多数论文当中已经进行了非常全面的研究。然而,利用鱼眼相机进行环视的距离感知相对来说研究较少。由于径向畸变大,标准的边界框表示在鱼眼相机当中很难实施。为了缓解上述描述,我们探索了扩展边界框、椭圆、通用多边形设计为极坐标/角度表示,并定义一个实例分割mIOU度量来分析这些表示。所提出的具有多边形形状的模型fisheyeDetNet优于其他模型,并同时在用于自动驾驶的Valeo鱼眼相机数据集上实现了49.5%的mAP

写在前面项目链接:https://nianticlabs.github.io/mickey/给定两张图片,可以通过建立图片之间的对应关系来估计它们之间的相机姿态。通常,这些对应关系是二维到二维的,而我们估计的姿态在尺度上是不确定的。一些应用,例如随时随地实现即时增强现实,需要尺度度量的姿态估计,因此它们依赖于外部的深度估计器来恢复尺度。本文提出了MicKey,这是一个关键点匹配流程,能够够预测三维相机空间中的度量对应关系。通过学习跨图像的三维坐标匹配,我们能够在没有深度测试的情况下推断出度量相对

FP8和更低的浮点数量化精度,不再是H100的“专利”了!老黄想让大家用INT8/INT4,微软DeepSpeed团队在没有英伟达官方支持的条件下,硬生生在A100上跑起FP6。测试结果表明,新方法TC-FPx在A100上的FP6量化,速度接近甚至偶尔超过INT4,而且拥有比后者更高的精度。在此基础之上,还有端到端的大模型支持,目前已经开源并集成到了DeepSpeed等深度学习推理框架中。这一成果对大模型的加速效果也是立竿见影——在这种框架下用单卡跑Llama,吞吐量比双卡还要高2.65倍。一名
