首页 > 科技周边 > 人工智能 > Open LLM榜单再次刷新,比Llama 2更强的「鸭嘴兽」来了

Open LLM榜单再次刷新,比Llama 2更强的「鸭嘴兽」来了

WBOY
发布: 2023-08-17 15:09:04
转载
1123 人浏览过

为了挑战 OpenAI 的 GPT-3.5 和 GPT-4 等封闭模型的主导地位,一系列开源模型正在崛起,其中包括 LLaMa、Falcon 等。最近,Meta AI 推出了被誉为开源领域最强大模型的 LLaMa-2,许多研究者也在此基础上构建自己的模型。例如,StabilityAI 利用 Orca 风格的数据集对 Llama2 70B 模型进行微调,开发出了 StableBeluga2,在 Huggingface 的 Open LLM 排行榜上也取得了不错的成绩

最新的Open LLM榜单排名已经发生了变化,Platypus(鸭嘴兽)模型成功登上了榜首

Open LLM榜单再次刷新,比Llama 2更强的「鸭嘴兽」来了

作者来自波士顿大学,使用了PEFT、LoRA和数据集Open-Platypus对Platypus进行了基于Llama 2的微调优化

Open LLM榜单再次刷新,比Llama 2更强的「鸭嘴兽」来了

作者在一篇论文中详细介绍了Platypus

Open LLM榜单再次刷新,比Llama 2更强的「鸭嘴兽」来了

这篇论文可以在以下网址找到:https://arxiv.org/abs/2308.07317

以下是本文的主要贡献:

  • Open-Platypus 是一个小规模的数据集,由公共文本数据集的精选子集组成。该数据集由 11 个开源数据集组成,重点是提高 LLM 的 STEM 和逻辑知识。它主要由人类设计的问题组成,只有 10% 的问题是由 LLM 生成的。Open-Platypus 的主要优势在于其规模和质量,它可以在很短的时间内实现非常高的性能,并且微调的时间和成本都很低。具体来说,在单个 A100 GPU 上使用 25k 个问题训练 13B 模型只需 5 个小时。
  • 描述了相似性排除过程,减少数据集的大小,并减少数据冗余。
  • 详细分析了始终存在的开放 LLM 训练集与重要 LLM 测试集中包含的数据相污染的现象,并介绍了作者避免这一隐患的训练数据过滤过程。
  • 介绍了对专门的微调 LoRA 模块进行选择和合并的过程。

Open-Platypus 数据集

作者目前已在 Hugging Face 上发布了 Open-Platypus 数据集


Open LLM榜单再次刷新,比Llama 2更强的「鸭嘴兽」来了

污染问题

为了避免基准测试问题泄漏到训练集中,本文方法首先考虑防止此问题,以确保结果不仅仅是通过记忆产生的偏差。作者在追求准确性的同时,也意识到在标记请再说一次问题时需要灵活性,因为问题的提出方式多种多样,同时还会受到通用领域知识的影响。为了管理潜在的泄漏问题,作者精心设计了启发式方法,用于手动过滤与 Open-Platypus 中基准问题余弦嵌入相似度超过80%的问题。他们将潜在泄漏问题分为三类:(1) 请再说一次问题;(2) 重新描述: 这个区域呈现出灰色的色调问题;(3) 类似但不完全相同的问题。为了谨慎起见,他们将所有这些问题都排除在训练集之外

请再说一次

这段文字几乎完全复制了测试题集的内容,只是对单词进行了轻微修改或重新排列。根据上表中泄漏问题的数量,作者认为这是唯一属于污染的类别。以下是具体例子:

Open LLM榜单再次刷新,比Llama 2更强的「鸭嘴兽」来了

重新描述: 这个区域呈现出灰色的色调

以下问题被称为重新描述: 这个区域呈现出灰色的色调,包括并非完全请再说一次、属于常识范畴的问题。虽然作者将这些问题的最终评判权留给了开源社区,但他们认为这些问题往往需要专家知识。需要注意的是,这类问题包括指令完全相同,但答案却同义的问题:

Open LLM榜单再次刷新,比Llama 2更强的「鸭嘴兽」来了

类似但不完全相同

这些问题的具有较高的相似度,但由于问题之间有着细微的变化,在答案上存在着显着差异。

Open LLM榜单再次刷新,比Llama 2更强的「鸭嘴兽」来了

微调与合并

作者在数据集完善后,专注于两种方法:低秩近似(LoRA)训练和参数高效微调(PEFT)库。与完全微调不同,LoRA保留了预训练模型的权重,并在transformer层中使用秩分解矩阵进行整合,从而减少了可训练参数,节省了训练时间和成本。最初,微调主要集中在注意力模块,如v_proj、q_proj、k_proj和o_proj。随后,根据He等人的建议,扩展到gate_proj、down_proj和up_proj模块。除非可训练参数小于总参数的0.1%,否则这些模块都表现出更好的效果。作者对13B和70B模型都采用了这种方法,结果可训练参数分别为0.27%和0.2%。唯一的区别在于这些模型的初始学习率

结果

根据2023年8月10日Hugging Face Open LLM排行榜数据,作者对Platypus与其他SOTA模型进行了比较,发现Platypus2-70Binstruct变体表现出色,以73.13的平均分稳居榜首

Open LLM榜单再次刷新,比Llama 2更强的「鸭嘴兽」来了

Stable-Platypus2-13B 模型在130 亿参数模型中以63.96 的平均分脱颖而出,值得关注

Open LLM榜单再次刷新,比Llama 2更强的「鸭嘴兽」来了

局限性

Platypus, as a fine-tuned extension of LLaMa-2, retains many of the constraints of the base model and introduces specific challenges through targeted training. It shares the static knowledge base of LLaMa-2, which may become outdated. Additionally , there is a risk of generating inaccurate or inappropriate content, particularly in cases of unclear prompts. While Platypus has been enhanced in STEM and English logic, its proficiency in other languages is not reliable and may be inconsistent. It occasionally produces biased or harmful content . The author acknowledges efforts to minimize these issues but acknowledges the ongoing challenges, particularly in non-English languages.

对于Platypus 的滥用可能性,这是一个令人担忧的问题,因此在部署之前开发人员应对其应用程序进行安全测试。 Platypus 在其主要领域之外可能存在一些限制,因此用户应小心操作,并考虑进行额外的微调以获得最佳性能。用户需要确保 Platypus 的训练数据与其他基准测试集没有重叠。作者对数据污染问题非常谨慎,避免将模型与在有污点的数据集上训练的模型合并。虽然经过清理的训练数据中确认没有污染,但也不能排除可能有一些问题被忽略。如需详细了解这些限制,请参阅论文中的限制部分

以上是Open LLM榜单再次刷新,比Llama 2更强的「鸭嘴兽」来了的详细内容。更多信息请关注PHP中文网其他相关文章!

相关标签:
来源:51cto.com
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板