首页 > 科技周边 > 人工智能 > 我们需要的一切吗?

我们需要的一切吗?

王林
发布: 2025-02-25 19:49:12
原创
893 人浏览过

> reft:一种革命性的微调LLMS

> 在斯坦福(Stanford)2024年5月的论文中引入的REFT(表示命名)提供了一种开创性的方法,可有效地微调大型语言模型(LLMS)。 它的潜力立即显现出来,由Oxen.AI于2024年7月的2024年7月在短短14分钟内的单个NVIDIA A10 GPU上进行了微调Llama3(8b)。 与现有的参数效率微调(PEFT)方法(如Lora)不同,lora修改模型权重或输入,REFT利用分布式互换干预(DII)方法。 DII项目将嵌入较低维的子空间嵌入,从而通过此子空间进行微调。

>本文首先回顾了流行的PEFT算法(LORA,提示调整,前缀调整),然后解释DII,然后再研究REFT及其实验结果。

>参数有效的微调(PEFT)技术

Is ReFT All We Needed?拥抱脸提供了PEFT技术的全面概述。 让我们简要总结关键方法:

lora(低级适应):

在2021年推出,洛拉(Lora)的简单性和概括性使其成为微调LLMS和扩散模型的领先技术。 Lora没有调整所有层重量,而是增加了低级矩阵,大大降低了可训练的参数(通常小于0.3%),加速训练并最大程度地减少GPU内存使用。

提示调整:此方法使用“软提示” - 可检验的特定任务特定嵌入 - 作为前缀,启用有效的多任务预测,而无需重复每个任务的模型。

Is ReFT All We Needed?

>

前缀调整(p-tuning v2):Is ReFT All We Needed?解决迅速调整的限制,前缀调整将可训练的及时嵌入到各种层中,从而允许在不同级别上进行特定于任务的学习。>

>

洛拉的鲁棒性和效率使其成为LLMS最广泛使用的PEFT方法。 可以在Is ReFT All We Needed?>中找到详细的经验比较。

>分布式互换干预(DII)

DII植根于因果抽象中,这是一种使用高级(因果)模型和低级(神经网络)模型之间的干预框架来评估一致性的框架。 DII通过正交预测将这两个模型投入到子空间中,从而通过旋转操作创建了介入的模型。 一个详细的视觉示例>。

DII过程可以用数学表示为:

>

Is ReFT All We Needed?

其中R代表正交投影,分布式对齐搜索(DAS)优化了子空间,以最大程度地提高预期后预期的反事实输出的概率。

>

> reft - 表示finetuning

REFT在较低维空间内介入模型的隐藏表示形式。 下图显示了应用于L层和位置P的干预措施(PHI)

Loreft(低率线性子空间REFT)引入了一个学识渊博的投影来源:Is ReFT All We Needed?

其中Is ReFT All We Needed?是隐藏的表示,而在由

>>的低维空间中进行了

编辑h。 Loreft集成到神经网络层中如下所示:Rs hR

在LLM微调期间,LLM参数保留冷冻,并且仅训练投影参数(

)。 Is ReFT All We Needed?实验结果

原始的REFT纸提出了对全面微调(FT),Lora和前缀调整的比较实验。 REFT技术始终优于现有方法,在达到卓越的性能的同时,将参数降低至少90%。phi={R, W, b}

讨论

REFT的吸引力源于其在各种基准的羊驼家庭模型及其在因果抽象中的基础上的出色表现,这有助于模型可解释性。 REFT表明,分布在神经元中的线性子空间可以有效地控制许多任务,从而为LLM提供宝贵的见解。

参考

以上是我们需要的一切吗?的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板