介绍RWKV:线性Transformers的兴起和探索替代方案
以下是我在RWKV播客中的一些想法摘要:https://www.php.cn/link/9bde76f262285bb1eaeb7b40c758b53e
为什么替代方案的重要性如此突出?
随着2023年的人工智能革命,Transformer架构目前正处于巅峰。然而,由于人们急于采用成功的Transformer架构,所以会容易忽视可以借鉴的替代品。
作为工程师,我们不应该采取一刀切的方法,对每个问题都使用相同的解决方案。我们应该在每一个情况下权衡利弊;否则将会被困在特定平台的限制范围内,同时因不知道有其他选择而感到“满足”,这可能会使发展一夜回到解放前
这个问题并不是人工智能领域独有的,而是一种从古到今都在重复的历史模式。
SQL战争历史的一页,是关于数据库管理系统之间的竞争和对抗的故事。在这个故事中,各种数据库管理系统如Oracle、MySQL和SQL Server等,为了争夺市场份额和技术优势,展开了激烈的竞争。这些竞争不仅体现在性能和功能方面,还涉及到商业策略、市场推广以及用户满意度等多个方面。这些数据库管理系统不断地推出新的功能和改进,以吸引更多的用户和企业选择他们的产品。SQL战争历史的一页,见证了数据库管理系统行业的发展和变革,也为我们提供了宝贵的经验和教训
最近在软件开发中有一个值得注意的例子是,当SQL服务器开始受到物理限制时,就出现了NoSQL的趋势。世界各地的初创企业都因为"规模"的原因转向了NoSQL,尽管它们远未达到这些规模
然而,随着时间的推移,随着最终一致性和NoSQL管理开销的出现,以及硬件功能在SSD速度和容量方面的巨大飞跃,SQL服务器最近又出现了回归的趋势,因为它们使用简单性,并且现在90%以上的初创公司都有足够的可扩展性
SQL和NoSQL是两种不同的数据库技术。SQL是结构化查询语言的缩写,主要用于处理结构化数据。NoSQL则是指非关系型数据库,适用于处理非结构化或半结构化数据。 虽然有人认为SQL比NoSQL更好,或者反之亦然,但实际上这只是意味着每种技术都有自己的优缺点和适用场景。在某些情况下,SQL可能更适合处理复杂的关系型数据,而NoSQL则更适合处理大规模的非结构化数据。 然而,这并不意味着只能选择其中一种技术。实际上,许多应用程序和系统在实践中使用了SQL和NoSQL的混合解决方案。根据具体的需求和数据类型,可以选择最适合的技术来解决问题。 因此,重要的是理解每种技术的特点和适用场景,并根据具体情况做出明智的选择。无论是SQL还是NoSQL,都有其独特的学习点和首选用例,可以在类似技术中相互借鉴和交叉传播
目前Transformer架构最大的痛点是什么?
通常,这包括计算、上下文大小、数据集和对齐。在本次讨论中,我们将重点讨论计算和上下文长度:
- 由于使用/生成的每个令牌的O(N^2)增加而导致的二次计算成本。这使得大于10万的上下文大小非常昂贵,从而影响推理和训练。
- 当前的GPU短缺加剧了这个问题。
- 上下文大小限制了Attention机制,严重限制了“智能代理”用例(如smol-dev),并强制解决问题。较大的上下文需要较少的解决方法。
那么,我们该如何解决这个问题呢?
介绍RWKV:一种线性Transformer/现代大型RNN
RWKV和微软RetNet是被称为“线性Transformer”的新类别中的第一个
它通过支持以下内容直接解决了上述三个限制:
- 线性计算成本,与上下文大小无关。
- 在CPU(尤其是ARM)中,允许以更低的要求在RNN模式下输出合理的令牌/秒。
- 没有作为RNN的硬上下文大小限制。文档中的任何限制都是指导原则——您可以对其进行微调。
随着我们不断将人工智能模型扩大到100k及以上的上下文大小,二次方计算成本开始呈指数级增长。
然而,线性Transformer并没有放弃递归神经网络架构及解决其瓶颈,这迫使它们被取代。
不过,重新设计的RNN吸取了Transformer可扩展的经验教训,使RNN能与Transformer工作方式类似,并消除了这些瓶颈。
在训练速度方面,用Transformer让它们重返赛场——允许它们在O(N)成本下高效运行,同时在训练中扩展到10亿个参数以上,同时保持类似的性能水平。
图表:线性Transformer计算成本按每个令牌线性缩放与变换器的指数增长
当你将平方比例应用于线性缩放时,你会在2k令牌计数时获得10倍以上的增长,在100k令牌长度时获得100倍以上的增长
在14B参数下,RWKV是最大的开源线性Transformer,与GPT NeoX和其他类似数据集(如the Pile)不相上下。
RWKV模型的性能与类似规模的现有变压器模型相当,各种基准显示
但用更简单的话来说,这意味着什么?
优点
- 在较大的上下文大小中,推理/训练比Transformer便宜10倍甚至更多
- 在RNN模式下,可以在非常有限的硬件上缓慢运行
- 与相同数据集上的Transformer性能相似
- RNN没有技术上下文大小限制(无限上下文!)
缺点
- 滑动窗口问题,有损内存超过某一点
- 尚未证明可扩展到14B参数以上
- 不如变压器优化和采用
因此,尽管RWKV还没有达到LLaMA2那样的60B+参数规模,但只要有正确的支持和资源,它有可能以更低的成本和更广泛的环境来实现这一目标,特别是在模型趋向于更小、更高效的情况下
如果您的用例对效率很重要,请考虑这一点。然而,这并非最终解决方案——关键在于健康的替代品
我们应该考虑学习其他替代方案以及它们的好处
扩散模型:文本训练速度较慢,但对多时期训练具有极高的弹性。找出原因可以帮助缓解令牌危机。
生成对抗性网络/代理:可以在没有数据集的情况下,使用技术将所需的训练集训练到特定目标,即使是基于文本的模型。
原文标题:Introducing RWKV: The Rise of Linear Transformers and Exploring Alternatives,作者:picocreator
https://www.php.cn/link/b433da1b32b5ca96c0ba7fcb9edba97d
以上是介绍RWKV:线性Transformers的兴起和探索替代方案的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

热门话题

Vibe编码通过让我们使用自然语言而不是无尽的代码行创建应用程序来重塑软件开发的世界。受Andrej Karpathy等有远见的人的启发,这种创新的方法使Dev

2025年2月,Generative AI又是一个改变游戏规则的月份,为我们带来了一些最令人期待的模型升级和开创性的新功能。从Xai的Grok 3和Anthropic的Claude 3.7十四行诗到Openai的G

Yolo(您只看一次)一直是领先的实时对象检测框架,每次迭代都在以前的版本上改善。最新版本Yolo V12引入了进步,可显着提高准确性

Chatgpt 4当前可用并广泛使用,与诸如ChatGpt 3.5(例如ChatGpt 3.5)相比,在理解上下文和产生连贯的响应方面取得了重大改进。未来的发展可能包括更多个性化的间

本文回顾了AI最高的艺术生成器,讨论了他们的功能,对创意项目的适用性和价值。它重点介绍了Midjourney是专业人士的最佳价值,并建议使用Dall-E 2进行高质量的可定制艺术。

Google DeepMind的Gencast:天气预报的革命性AI 天气预报经历了巨大的转变,从基本观察到复杂的AI驱动预测。 Google DeepMind的Gencast,开创性

本文讨论了AI模型超过Chatgpt,例如Lamda,Llama和Grok,突出了它们在准确性,理解和行业影响方面的优势。(159个字符)

Openai的O1:为期12天的礼物狂欢始于他们迄今为止最强大的模型 12月的到来带来了全球放缓,世界某些地区的雪花放缓,但Openai才刚刚开始。 山姆·奥特曼(Sam Altman)和他的团队正在推出12天的礼物前
