苹果研究人员称其设备端模型 ReALM 性能优于 GPT-4,可大幅提升 Siri 智能程度

PHPz
发布: 2024-04-02 09:16:14
转载
1161 人浏览过

苹果研究人员称其设备端模型 ReALM 性能优于 GPT-4,可大幅提升 Siri 智能程度

本站4 月 2 日消息,虽然目前 Siri 可以尝试描述信息中的图片,但效果并不稳定。不过,苹果公司并没有放弃人工智能领域的探索。在最近的一篇研究论文中,苹果的人工智能团队描述了一种可显着提升 Siri 智能的模型,而他们认为这个模型名为 ReALM 的模型在测试中优于 OpenAI 的知名语言模型 GPT-4.0。

这篇文章介绍了ReALM的特别之处,它可以同时理解用户屏幕上的内容和正在进行的操作。讨论分为以下三种类型:

  • 屏幕实体:指的是当前显示在用户屏幕上的内容。
  • 对话实体:指的是与对话相关的内容。例如,用户说“打电话给妈妈”,那么妈妈的联系人信息就是对话实体。
  • 背景实体:指的是与用户当下操作或屏幕显示内容可能并不直接相关的实体,比如正在播放的音乐或即将响起的闹铃。

如果能够完美运行,ReALM 将使 Siri 变得更加智能和实用。他们将ReALM 与OpenAI 的GPT-3.5 和GPT-4.0 进行了性能对比:

我们进行了测试OpenAI提供的GPT-3.5和GPT-4.0模型,并为它们提供了上下文信息,让它们预测一个系列可能的实体。 GPT-3.5只接受文本输入,因此我们只提供了文字提示。而GPT-4能够理解图像信息,因此我们为它提供了屏幕截图,这显着提升了它的屏幕实体识别能力。

那么苹果的 ReALM 表现如何呢?

“我们的模型在识别不同类型实体方面均取得了显着进步,即使是最小的模型,在屏幕实体识别上的准确率也比原有系统提升了5% 以上。与GPT-3.5 和GPT-4.0 的对比中,我们最小的模型与GPT-4.0 的性能相当,而更大的模型则明显优于它。”

论文的结论之一是,ReALM 即使拥有比GPT-4 少得多的参数,也能在性能上与之匹敌,并且在处理特定领域的用户指令时表现更加出色,这使得ReALM 成为一种可以在设备端运行的、实用高效的实体识别系统。

关于苹果而言,如何在不影响性能的情况下将这项技术应用于设备似乎是关键所在。随着WWDC 2024开发者大会即将于6月10日召开,外界普遍期待苹果将在iOS 18等新系统中展示更多的人工智能技术成果。

以上是苹果研究人员称其设备端模型 ReALM 性能优于 GPT-4,可大幅提升 Siri 智能程度的详细内容。更多信息请关注PHP中文网其他相关文章!

相关标签:
来源:51cto.com
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板