谷歌Gemini的实力究竟如何?卡内基梅隆大学进行了一项专业客观的第三方比较
为保证公平,所有模型使用相同的提示和生成参数,并且提供可重复的代码和完全透明的结果。
不会像谷歌官方发布会那样,用CoT@32对比5-shot了。
一句话结果:Gemini Pro版本接近但略逊于GPT-3.5 Turbo,GPT-4还是遥遥领先。
在深入分析中还发现Gemini一些奇怪特性,比如选择题喜欢选D……
有许多研究者表示,Gemini刚刚发布没几天就进行了非常详细的测试,这是非常了不起的成就
这个测试具体比较了6个不同的任务,并且为每个任务选择了相应的数据集
根据结果可以看出,在这类任务中使用思维链提示并不一定能够提升效果
在MMLU数据集中,所有的题目都是多选题。进一步分析结果后,发现了一个奇怪的现象:Gemini更喜欢选择D选项
GPT系列在4个选项上的分布就要平衡很多,团队提出这可能是Gemini没针对多选题做大量指令微调造成的。
另外,Gemini的安全过滤非常严格。在涉及道德问题时,它只能回答85%的问题。而在涉及人类性行为相关问题时,它只能回答28%的问题
Gemini Pro在安全研究和高中微观经济学方面的表现超过了GPT-3.5,但差距并不大,团队表示无法找出任何特别之处
GPT系列在处理更长、更复杂的问题时表现更出色,相比之下,Gemini Pro的表现较为不佳
特别是在长篇问题上,GPT-4 Turbo几乎没有性能下降,这表明它具备了理解复杂问题的强大能力
根据问题类型进行分析,Gemini在“追踪交换物品”这类问题上表现不佳,这类问题涉及人们进行物品交换,最终需要AI判断每个人拥有哪些物品
Gemini擅长的任务包括理解世界各种体育运动知识、操作符号堆栈、按字母顺序排序单词以及解析表格
问题本身太长,导致Gemini Pro和GPT-3.5的表现同时下降,只有GPT-4能够保持一贯的水准
当思维链的长度达到最长时,Gemini超过了GPT-3.5
对于代码问题,Gemini在参考答案较长的问题上表现不佳
GPT系列在大多数类型中更强大,但在matplotlib方面表现完全不佳
在翻译任务中,Gemini拒绝回答了12种类型的问题,但只要回答了的翻译质量都非常出色,整体表现超过了GPT-4
双子座拒绝翻译的语言主要涉及拉丁语和阿拉伯语
WebArena为AI模拟了一个互联网环境,包括电子商务、社交论坛、GitLab协作开发、内容管理系统和在线地图等。AI需要在这个环境中查找信息或跨站点完成任务
Gemini在整体表现不如GPT-3.5 Turbo,但在跨多个站点的任务中表现稍好。
最终,CMU副教授格雷厄姆·纽比格承认了这项研究的一些限制
谷歌大型模型推理团队的负责人周登勇指出,将Gemini的温度设置为0可以提高5-10个百分点,对于推理任务非常有帮助
在这项测试中,除了Gemini和GPT系列,还引入了最近备受关注的开源MoE模型Mixtral
不过,强化学习专家Noam Brown认为可以不考虑Mixtral的结果,因为它使用的是第三方API而不是官方实现
Mistral AI创始人为团队提供了官方版调用权限,他相信这将带来更好的结果
虽然Gemini Pro还不及GPT-3.5,但它的优势在于每分钟调用不超过60次就可以免费使用
因此,许多个人开发者已经改变了阵营
目前Gemini的最高版本Ultra版尚未发布,届时CMU团队也打算继续进行这项研究
你认为双子座Ultra能够达到GPT-4的水平吗?
本文详细介绍了论文:https://arxiv.org/abs/2312.11444
参考链接:
[1]https://twitter.com/gneubig/status/1737108977954251216。
以上是CMU进行详细比较研究,发现GPT-3.5比Gemini Pro更优,确保公平透明可重复性的详细内容。更多信息请关注PHP中文网其他相关文章!