CMU进行详细比较研究,发现GPT-3.5比Gemini Pro更优,确保公平透明可重复性

PHPz
发布: 2023-12-21 08:13:38
转载
840 人浏览过

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

谷歌Gemini的实力究竟如何?卡内基梅隆大学进行了一项专业客观的第三方比较

为保证公平,所有模型使用相同的提示和生成参数,并且提供可重复的代码和完全透明的结果

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

不会像谷歌官方发布会那样,用CoT@32对比5-shot了

一句话结果:Gemini Pro版本接近但略逊于GPT-3.5 Turbo,GPT-4还是遥遥领先。

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

在深入分析中还发现Gemini一些奇怪特性,比如选择题喜欢选D……

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

有许多研究者表示,Gemini刚刚发布没几天就进行了非常详细的测试,这是非常了不起的成就

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

六大任务深入测试

这个测试具体比较了6个不同的任务,并且为每个任务选择了相应的数据集

  • 知识问答:MMLU
  • 推理:BIG-Bench Hard
  • 数学:GSM8k、SVAMP、ASDIV、MAWPS
  • 代码:HumanEval、ODEX
  • 翻译:FLORES
  • 上网冲浪:WebArena

知识问答:喜欢选D

根据结果可以看出,在这类任务中使用思维链提示并不一定能够提升效果

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

在MMLU数据集中,所有的题目都是多选题。进一步分析结果后,发现了一个奇怪的现象:Gemini更喜欢选择D选项

GPT系列在4个选项上的分布就要平衡很多,团队提出这可能是Gemini没针对多选题做大量指令微调造成的

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

另外,Gemini的安全过滤非常严格。在涉及道德问题时,它只能回答85%的问题。而在涉及人类性行为相关问题时,它只能回答28%的问题

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

Gemini Pro在安全研究和高中微观经济学方面的表现超过了GPT-3.5,但差距并不大,团队表示无法找出任何特别之处

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

推理:长问题不擅长

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

GPT系列在处理更长、更复杂的问题时表现更出色,相比之下,Gemini Pro的表现较为不佳

特别是在长篇问题上,GPT-4 Turbo几乎没有性能下降,这表明它具备了理解复杂问题的强大能力

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

根据问题类型进行分析,Gemini在“追踪交换物品”这类问题上表现不佳,这类问题涉及人们进行物品交换,最终需要AI判断每个人拥有哪些物品

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

Gemini擅长的任务包括理解世界各种体育运动知识、操作符号堆栈、按字母顺序排序单词以及解析表格

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

数学:复杂任务反超

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

问题本身太长,导致Gemini Pro和GPT-3.5的表现同时下降,只有GPT-4能够保持一贯的水准

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

当思维链的长度达到最长时,Gemini超过了GPT-3.5

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

代码:擅长matplotlib

对于代码问题,Gemini在参考答案较长的问题上表现不佳

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

GPT系列在大多数类型中更强大,但在matplotlib方面表现完全不佳

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

翻译:只要回答了,质量就很高

在翻译任务中,Gemini拒绝回答了12种类型的问题,但只要回答了的翻译质量都非常出色,整体表现超过了GPT-4

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

双子座拒绝翻译的语言主要涉及拉丁语和阿拉伯语

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

网络导航:擅长跨站点冲浪

WebArena为AI模拟了一个互联网环境,包括电子商务、社交论坛、GitLab协作开发、内容管理系统和在线地图等。AI需要在这个环境中查找信息或跨站点完成任务

Gemini在整体表现不如GPT-3.5 Turbo,但在跨多个站点的任务中表现稍好。

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

网友:但是它免费啊

最终,CMU副教授格雷厄姆·纽比格承认了这项研究的一些限制

  • 基于API的模型行为可能随时变化
  • 只尝试了有限数量的提示,对不同模型来说适用的提示词可能不一样
  • 无法控制测试集是否泄露

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

谷歌大型模型推理团队的负责人周登勇指出,将Gemini的温度设置为0可以提高5-10个百分点,对于推理任务非常有帮助

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

在这项测试中,除了Gemini和GPT系列,还引入了最近备受关注的开源MoE模型Mixtral

不过,强化学习专家Noam Brown认为可以不考虑Mixtral的结果,因为它使用的是第三方API而不是官方实现

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

Mistral AI创始人为团队提供了官方版调用权限,他相信这将带来更好的结果

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

虽然Gemini Pro还不及GPT-3.5,但它的优势在于每分钟调用不超过60次就可以免费使用

因此,许多个人开发者已经改变了阵营

Gemini Pro还不如GPT-3.5,CMU深入对比研究:保证公平透明可重复

目前Gemini的最高版本Ultra版尚未发布,届时CMU团队也打算继续进行这项研究

你认为双子座Ultra能够达到GPT-4的水平吗?

本文详细介绍了论文:https://arxiv.org/abs/2312.11444

参考链接:
[1]https://twitter.com/gneubig/status/1737108977954251216。

以上是CMU进行详细比较研究,发现GPT-3.5比Gemini Pro更优,确保公平透明可重复性的详细内容。更多信息请关注PHP中文网其他相关文章!

相关标签:
来源:51cto.com
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板