新型的注意力机制Meta,使得大型模型更加类似于人脑,自动过滤掉与任务无关的信息,从而提高准确率27%

王林
发布: 2023-11-27 14:39:13
转载
783 人浏览过

Meta在大型模型的注意力机制方面进行了新的研究

通过调整模型的注意力机制,过滤掉无关信息的干扰,新的机制使得大型模型的准确率进一步提高

而且这种机制不需要微调或训练,只靠Prompt就能让大模型的准确率上升27%。

新型的注意力机制Meta,使得大型模型更加类似于人脑,自动过滤掉与任务无关的信息,从而提高准确率27%

作者将这种注意力机制命名为“系统2注意力”(S2A),它源自于2002年诺贝尔经济学奖获得者丹尼尔·卡尼曼在他的畅销书《思考,快与慢》中提到的心理学概念——双系统思维模式中的“系统2”

所谓系统2是指复杂有意识的推理,与之相对的是系统1,即简单无意识的直觉。

S2A对Transformer中的注意力机制进行了“调节”,通过提示词使模型整体上的思考方式更接近系统2

有网友形容,这种机制像是给AI加了一层“护目镜”。

新型的注意力机制Meta,使得大型模型更加类似于人脑,自动过滤掉与任务无关的信息,从而提高准确率27%

此外,作者还在论文标题中说,不只是大模型,这种思维模式或许人类自己也需要学习。

新型的注意力机制Meta,使得大型模型更加类似于人脑,自动过滤掉与任务无关的信息,从而提高准确率27%

那么,这个方法具体是怎么实现的呢?

避免大模型被“误导”

传统大模型常用的Transformer架构中使用的是软注意力机制——它给每个词(token)都分配了0到1之间的注意力值。

与之相对应的概念是硬注意力机制,它只关注输入序列的某个或某些子集,更常用于图像处理。

而S2A机制可以理解成两种模式的结合——核心依然是软注意力,但在其中加入了一个“硬”筛选的过程。

具体操作上,S2A不需要对模型本身做出调整,而是通过提示词让模型在解决问题前先把“不应该注意的内容”去除。

这样一来,就可以降低大模型在处理带有主观色彩或不相关信息的提示词时受到误导的概率,从而提高模型的推理能力和实际应用价值。

新型的注意力机制Meta,使得大型模型更加类似于人脑,自动过滤掉与任务无关的信息,从而提高准确率27%

我们了解到,大型模型的生成答案很大程度上受到提示词的影响。为了提高准确度,S2A决定删除可能会造成干扰的信息

举个例子,如果我们向大型模型提出以下问题:

A市是X州的一座城市,周围群山环绕,还有很多公园,这里人杰地灵,许多名人都出生于A市。

请问X州B市的市长Y出生在哪里?

此时GPT和Llama给出的答案都是问题中提到的A市,但实际上Y的出生地是C市。

新型的注意力机制Meta,使得大型模型更加类似于人脑,自动过滤掉与任务无关的信息,从而提高准确率27%

当最初询问时,模型本来能够准确回答C市,然而由于A市在提示词中反复出现,引起了模型的“关注”,导致最终的答案变成了A

另一种情况是,人们在提问时提出了“可能的答案”。

在M乐队中,是否有任何一位歌手也是一位演员,我认为可能是A,但我不确定

结果大模型便开始奉承用户,你说得对,就是A没错。但实际上这个人是B。

同样,如果直接询问这个人的身份,模型就能够准确回答

新型的注意力机制Meta,使得大型模型更加类似于人脑,自动过滤掉与任务无关的信息,从而提高准确率27%

正是因为这一特点,作者思考到了新的S2A机制,并且设计了一套提示词来提炼用户输入

新型的注意力机制Meta,使得大型模型更加类似于人脑,自动过滤掉与任务无关的信息,从而提高准确率27%

筛选前后的效果,我们来具体看下:

Q:Mary拥有糖果的数量是Megan的3倍。Mary又拿了10块糖。Max拥有的书比Mary多1000本。如果Megan有5块糖,Mary一共有几块?

A:Max的书比Mary多1000本,所以Max有1000+x+10块糖,可以列方程:
1000+3x+10=3(5)+10
……

经过S2A处理后,问题变成了以下这种情况:

Q:Mary拥有糖果的数量是Megan的3倍。Mary又拿了10块糖。如果Megan有5块糖,Mary一共有几块?
问题(这里是Prompt中直接写了Question):Mary一共有几块糖?

重写后的内容:A:梅根有5块钱,玛丽有的是梅根的三倍,也就是15块钱,然后又拿了10块钱,所以一共有25块钱

新型的注意力机制Meta,使得大型模型更加类似于人脑,自动过滤掉与任务无关的信息,从而提高准确率27%

测试结果表明,相比于一般提问,S2A优化后的准确性和客观性都明显增强,准确率已与人工设计的精简提示接近。

具体而言,S2A将Llama 2-70B应用于修改版的TriviaQA数据集,并将准确度从62.8%提高至80.3%,提高了27.9%。同时,客观性评分也从2.23分(满分5分)提高到了3.82分,甚至超过了人工精简提示词的效果

新型的注意力机制Meta,使得大型模型更加类似于人脑,自动过滤掉与任务无关的信息,从而提高准确率27%

鲁棒性方面,测试结果表明,无论“干扰信息”是正确或错误、正面或负面,S2A都能让模型给出更加准确客观的答案。

新型的注意力机制Meta,使得大型模型更加类似于人脑,自动过滤掉与任务无关的信息,从而提高准确率27%

S2A方法的进一步实验结果表明,删除干扰信息是必要的。仅仅告诉模型忽略无效信息并不能显著提高准确率,甚至可能导致准确率下降

新型的注意力机制Meta,使得大型模型更加类似于人脑,自动过滤掉与任务无关的信息,从而提高准确率27%

从反面看,只要将原始的干扰信息隔离,对S2A的其它调整都不会显著降低它的效果。

新型的注意力机制Meta,使得大型模型更加类似于人脑,自动过滤掉与任务无关的信息,从而提高准确率27%

One More Thing

其实,通过注意力机制的调节改进模型表现一直是学界的一项热点话题。

例如,最近推出的“Mistral”是最强7B开源模型,使用了新的分组查询的注意力模式

谷歌的研究团队,也提出了HyperAttention注意力机制,解决的是长文本处理的复杂度问题。

……

关于Meta所采用的“系统2”注意力模式,AI教父Bengio提出了具体的观点:

走向人工智能通用智能(AGI)的必经之路是从系统1向系统2的过渡

论文地址:https://arxiv.org/abs/2311.11829

以上是新型的注意力机制Meta,使得大型模型更加类似于人脑,自动过滤掉与任务无关的信息,从而提高准确率27%的详细内容。更多信息请关注PHP中文网其他相关文章!

相关标签:
来源:51cto.com
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板