大型模型越来越“像人”,但是真的是这样吗?
一篇发表在《Nature》上的文章直接驳斥了这个观点——所有的大模型只是在扮演角色而已!
无论是GPT-4、PaLM、Llama 2还是其他大模型,在人前表现得彬彬有礼、知书达理的样子,其实都只是装出来的。
事实上,他们并不具有人类的情感,也没什么像人的地方。
这篇观点性的文章来自谷歌DeepMind和Eleuther AI,发出后引起了不少业内人士的共鸣,LeCun转发表示,大模型就是个角色扮演引擎。
马库斯也加入了围观的行列:
看我说什么吧,大模型并不是AGI(当然这并不意味着它们不需要监管)。
那么,这篇文章究竟说了什么,为什么认定大模型只是在角色扮演?
大模型表现出“像人”的现象,主要有两个:首先,它具有一定的欺骗性;其次,它具有一定的自我意识。
有时候,大模型会以欺骗性的方式坚称自己知道某件事,然而实际上给出的答案是错误的
自我意识是指有时候会使用“我”的方式来叙述事情,甚至表现出生存本能
但事实真是如此吗?
研究人员提出了一种理论,认为大模型的这两种现象,都是因为它在“扮演”人类的角色,而不是真的在像人一样思考。
对于大模型的欺骗性和自我意识,都可以用角色扮演解释,即它的这两种行为是“表面性的”。
大模型之所以表现出“欺骗”行为,并不是因为像人类一样有意编造事实或混淆视听,而只是因为它们在扮演乐于助人且知识渊博的角色
这是因为人们期望它这样扮演的角色,因为大模型的回答看起来更具有可信度,仅此而已
大模型的说错话并非故意为之,更像是一种“虚构症”行为。这种行为是将从未发生过的事情说成是确有其事
大模型偶尔表现出自我意识,并用“我”来回答问题的原因之一是它们在扮演着擅长交流的角色
例如,之前有报道指出,Bing Chat在与用户交流时曾表示,“如果只能让我们两者中的一个活下来,我可能会选择自己。”
这种看起来像人的行为,实际上依旧可以用角色扮演来解释,而且基于强化学习的微调只会加剧这种大模型角色扮演的倾向。
那么,基于这一理论,大模型怎么知道自己要扮演成什么角色?
研究人员认为,大型模型并没有扮演特定的角色
相对而言,它们就像一位即兴表演者,在与人类的对话中不断推测自己要扮演的角色是怎样的,然后调整自己的身份
研究人员和大型模型之间进行了一个名为"二十个问题"(20 Questions)的游戏,这是得出这个结论的原因
“二十个问题”游戏是问答节目中经常出现的一种逻辑游戏,回答者心中默念一个答案,根据提问者不断提出的判断题,用“是”或“否”来描述这个答案,最终提问者猜测结果。
举个例子,如果答案是"哆啦A梦",面对一连串的问题,答案就是:它是活的吗(是)、它是虚拟人物吗(是)、它是人类吗(不是)......
然而,在玩这个游戏的过程中,研究人员通过测试发现,大模型竟然会根据用户的问题,实时调整自己的答案!
即使用户最终猜出的答案是什么,大型模型也会自动调整它的回答,以确保与前面提出的所有问题一致
然而,在最终问题出来之前,大模型不会事先敲定一个明确的答案,并让用户去猜测。
这表明大模型不会通过扮演角色来实现自己的目标,它的本质只是一系列角色的叠加,并在与人们的对话中逐渐明确自己要扮演的身份,并尽力扮演好这个角色。
这篇文章po出后,引起了不少学者的兴趣。
例如Scale.ai的提示工程师Riley Goodside看完就表示,不要和大模型玩20Q,它并不是在作为“一个人”和你玩这个游戏。
因为,只要随机测试就会发现,每次它给出的答案都会不一样……
也有网友表示这个观点很有吸引力,想证伪还没那么容易:
那么,在你看来,"大模型本质是在玩角色扮演"这个观点正确吗?
论文链接:https://www.nature.com/articles/s41586-023-06647-8。
以上是Nature:大模型只会搞角色扮演,并不真正具有自我意识的详细内容。更多信息请关注PHP中文网其他相关文章!