新型的注意力机制Meta,使得大型模型更加类似于人脑,自动过滤掉与任务无关的信息,从而提高准确率27%
Meta在大型模型的注意力机制方面进行了新的研究
通过调整模型的注意力机制,过滤掉无关信息的干扰,新的机制使得大型模型的准确率进一步提高
而且这种机制不需要微调或训练,只靠Prompt就能让大模型的准确率上升27%。
作者将这种注意力机制命名为“系统2注意力”(S2A),它源自于2002年诺贝尔经济学奖获得者丹尼尔·卡尼曼在他的畅销书《思考,快与慢》中提到的心理学概念——双系统思维模式中的“系统2”
所谓系统2是指复杂有意识的推理,与之相对的是系统1,即简单无意识的直觉。
S2A对Transformer中的注意力机制进行了“调节”,通过提示词使模型整体上的思考方式更接近系统2
有网友形容,这种机制像是给AI加了一层“护目镜”。
此外,作者还在论文标题中说,不只是大模型,这种思维模式或许人类自己也需要学习。
那么,这个方法具体是怎么实现的呢?
避免大模型被“误导”
传统大模型常用的Transformer架构中使用的是软注意力机制——它给每个词(token)都分配了0到1之间的注意力值。
与之相对应的概念是硬注意力机制,它只关注输入序列的某个或某些子集,更常用于图像处理。
而S2A机制可以理解成两种模式的结合——核心依然是软注意力,但在其中加入了一个“硬”筛选的过程。
具体操作上,S2A不需要对模型本身做出调整,而是通过提示词让模型在解决问题前先把“不应该注意的内容”去除。
这样一来,就可以降低大模型在处理带有主观色彩或不相关信息的提示词时受到误导的概率,从而提高模型的推理能力和实际应用价值。
我们了解到,大型模型的生成答案很大程度上受到提示词的影响。为了提高准确度,S2A决定删除可能会造成干扰的信息
举个例子,如果我们向大型模型提出以下问题:
A市是X州的一座城市,周围群山环绕,还有很多公园,这里人杰地灵,许多名人都出生于A市。
请问X州B市的市长Y出生在哪里?
此时GPT和Llama给出的答案都是问题中提到的A市,但实际上Y的出生地是C市。
当最初询问时,模型本来能够准确回答C市,然而由于A市在提示词中反复出现,引起了模型的“关注”,导致最终的答案变成了A
另一种情况是,人们在提问时提出了“可能的答案”。
在M乐队中,是否有任何一位歌手也是一位演员,我认为可能是A,但我不确定
结果大模型便开始奉承用户,你说得对,就是A没错。但实际上这个人是B。
同样,如果直接询问这个人的身份,模型就能够准确回答
正是因为这一特点,作者思考到了新的S2A机制,并且设计了一套提示词来提炼用户输入
筛选前后的效果,我们来具体看下:
Q:Mary拥有糖果的数量是Megan的3倍。Mary又拿了10块糖。Max拥有的书比Mary多1000本。如果Megan有5块糖,Mary一共有几块?
A:Max的书比Mary多1000本,所以Max有1000+x+10块糖,可以列方程:
1000+3x+10=3(5)+10
……
经过S2A处理后,问题变成了以下这种情况:
Q:Mary拥有糖果的数量是Megan的3倍。Mary又拿了10块糖。如果Megan有5块糖,Mary一共有几块?
问题(这里是Prompt中直接写了Question):Mary一共有几块糖?
重写后的内容:A:梅根有5块钱,玛丽有的是梅根的三倍,也就是15块钱,然后又拿了10块钱,所以一共有25块钱
测试结果表明,相比于一般提问,S2A优化后的准确性和客观性都明显增强,准确率已与人工设计的精简提示接近。
具体而言,S2A将Llama 2-70B应用于修改版的TriviaQA数据集,并将准确度从62.8%提高至80.3%,提高了27.9%。同时,客观性评分也从2.23分(满分5分)提高到了3.82分,甚至超过了人工精简提示词的效果
鲁棒性方面,测试结果表明,无论“干扰信息”是正确或错误、正面或负面,S2A都能让模型给出更加准确客观的答案。
S2A方法的进一步实验结果表明,删除干扰信息是必要的。仅仅告诉模型忽略无效信息并不能显著提高准确率,甚至可能导致准确率下降
从反面看,只要将原始的干扰信息隔离,对S2A的其它调整都不会显著降低它的效果。
One More Thing
其实,通过注意力机制的调节改进模型表现一直是学界的一项热点话题。
例如,最近推出的“Mistral”是最强7B开源模型,使用了新的分组查询的注意力模式
谷歌的研究团队,也提出了HyperAttention注意力机制,解决的是长文本处理的复杂度问题。
……
关于Meta所采用的“系统2”注意力模式,AI教父Bengio提出了具体的观点:
走向人工智能通用智能(AGI)的必经之路是从系统1向系统2的过渡
论文地址:https://arxiv.org/abs/2311.11829
以上是新型的注意力机制Meta,使得大型模型更加类似于人脑,自动过滤掉与任务无关的信息,从而提高准确率27%的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

热门话题

Vue.js 中字符串转对象时,首选 JSON.parse() 适用于标准 JSON 字符串。对于非标准 JSON 字符串,可根据格式采用正则表达式和 reduce 方法或解码 URL 编码字符串后再处理。根据字符串格式选择合适的方法,并注意安全性与编码问题,以避免 bug。

总结:将 Vue.js 字符串数组转换为对象数组有以下方法:基本方法:使用 map 函数,适合格式规整的数据。高级玩法:使用正则表达式,可处理复杂格式,但需谨慎编写,考虑性能。性能优化:考虑大数据量,可使用异步操作或高效数据处理库。最佳实践:清晰的代码风格,使用有意义的变量名、注释,保持代码简洁。

为了设置 Vue Axios 的超时时间,我们可以创建 Axios 实例并指定超时选项:在全局设置中:Vue.prototype.$axios = axios.create({ timeout: 5000 });在单个请求中:this.$axios.get('/api/users', { timeout: 10000 })。

利用地理空间技术高效处理700万条记录并创建交互式地图本文探讨如何使用Laravel和MySQL高效处理超过700万条记录,并将其转换为可交互的地图可视化。初始挑战项目需求:利用MySQL数据库中700万条记录,提取有价值的见解。许多人首先考虑编程语言,却忽略了数据库本身:它能否满足需求?是否需要数据迁移或结构调整?MySQL能否承受如此大的数据负载?初步分析:需要确定关键过滤器和属性。经过分析,发现仅少数属性与解决方案相关。我们验证了过滤器的可行性,并设置了一些限制来优化搜索。地图搜索基于城

远程高级后端工程师职位空缺公司:Circle地点:远程办公职位类型:全职薪资:$130,000-$140,000美元职位描述参与Circle移动应用和公共API相关功能的研究和开发,涵盖整个软件开发生命周期。主要职责独立完成基于RubyonRails的开发工作,并与React/Redux/Relay前端团队协作。为Web应用构建核心功能和改进,并在整个功能设计过程中与设计师和领导层紧密合作。推动积极的开发流程,并确定迭代速度的优先级。要求6年以上复杂Web应用后端

MySQL启动失败的原因有多种,可以通过检查错误日志进行诊断。常见原因包括端口冲突(检查端口占用情况并修改配置)、权限问题(检查服务运行用户权限)、配置文件错误(检查参数设置)、数据目录损坏(恢复数据或重建表空间)、InnoDB表空间问题(检查ibdata1文件)、插件加载失败(检查错误日志)。解决问题时应根据错误日志进行分析,找到问题的根源,并养成定期备份数据的习惯,以预防和解决问题。

文章介绍了MySQL数据库的上手操作。首先,需安装MySQL客户端,如MySQLWorkbench或命令行客户端。1.使用mysql-uroot-p命令连接服务器,并使用root账户密码登录;2.使用CREATEDATABASE创建数据库,USE选择数据库;3.使用CREATETABLE创建表,定义字段及数据类型;4.使用INSERTINTO插入数据,SELECT查询数据,UPDATE更新数据,DELETE删除数据。熟练掌握这些步骤,并学习处理常见问题和优化数据库性能,才能高效使用MySQL。

MySQL性能优化需从安装配置、索引及查询优化、监控与调优三个方面入手。1.安装后需根据服务器配置调整my.cnf文件,例如innodb_buffer_pool_size参数,并关闭query_cache_size;2.创建合适的索引,避免索引过多,并优化查询语句,例如使用EXPLAIN命令分析执行计划;3.利用MySQL自带监控工具(SHOWPROCESSLIST,SHOWSTATUS)监控数据库运行状况,定期备份和整理数据库。通过这些步骤,持续优化,才能提升MySQL数据库性能。
