4 秒看完 2 小时电影!阿里发布通用多模态大模型 mPLUG-Owl3
4 秒看完 2 小时电影,阿里团队新成果正式亮相——
推出通用多模态大模型 mPLUG-Owl3,专门用来理解多图、长视频。
具体来说,以 LLaVA-Next-Interleave 为基准,mPLUG-Owl3 将模型的First Token Latency 缩小了 6 倍,且单张 A100 能建模的图像数目提升了 8 倍,达到了400 张图片,实测 4 秒就能看完一部 2 小时的电影。
换句话说,模型的推理效率有了极大提升。
而且不牺牲模型的准确性。
mPLUG-Owl3 还在多模态大模型所涉及的各种场景,包括单图、多图、视频领域的诸多 Benchmarks 上达到了SOTA。
论文作者来自阿里 mPLUG 团队,他们一直深耕多模态大模型底座,在此之前还提出了:
高效多模态底座 mPLUG 系列
模块化多模态大语言模型底座 mPLUG-Owl 系列
文档理解底座 mPLUG-DocOwl 系列
下面就让我们来了解一下本次发布的 mPLUG-Owl3 究竟带来了什么黑科技吧。
玩法解锁
团队展示了 mPLUG-Owl3 的几种常见用法。
多模态检索增强
一般来说,对于模型没有学过的知识,通过检索系统进行补充是常见的做法。这需要模型能准确理解传入的多模态知识,并用于解答问题。
在下面这个例子中,mPLUG-Owl3 不仅能基于检索知识正确回复,还能给出它基于哪一条知识做出的判断,并且给出详细的判断依据。这对于下游研发人员开发和调试都是非常友好的。
检索部分:以下是为你检索到的几个多模态知识,供你做出决定。
提问:根据你对上面四张狗的照片的观察,你能对图片 5 中的狗进行分类吗?给出理由。
回答:根据对四张狗的照片的观察,图片 5 中的狗可以被归类为爱尔兰梗犬。图片 1 中的狗被描述为爱尔兰梗犬,图片 5 中的狗与图片 1 中的狗在身体特征上有相似之处……
多图推理
生活中经常会出现这样的情况——
很多用户并非只围绕一张图片进行对话,而是用户可能有几份材料,需要模型能正确理解不同材料中的内容的关系。
在下面这个例子中,mPLUG-Owl3 能通过两张图像所见,激活语言模型的常识知识,并围绕两张图片进行推理。
提问:左边的动物能在右边的环境中存活吗?需要回答并给出解释。
回答(正确答案标绿):大意是,不能存活,因为环境太冷了。
在另一个例子中,mPLUG-Owl3 不仅能察觉两张图片风格上的差异性,并且也能意识到两张图中的人物虽然风格不同,但其实是同一个角色。
第一次提问:图片中描绘了哪些艺术风格,它们有何不同?
回答:第一张是像素风,第二张是卡通风格……(给出理由)
第二次提问:在两幅画中都出现了谁?他们的特征是什么?
回答:在两幅画中,都出现了一个戴着牛仔帽的男人,他被两种不同的风格描绘。
长视频理解
观看超长视频是现在大部分模型都无法端到端完成的任务,若是基于 Agent 框架,则又难以保证响应速度。
mPLUG-Owl3 能够看一部 2 小时电影,并且4 秒就能开始回答用户的问题。
不管用户是对电影的开头、中间和结尾的非常细致的片段进行提问,mPLUG-Owl3 都能对答如流。
咋做到的?
与传统模型不同,mPLUG-Owl3不需要提前将视觉序列拼接到语言模型的文本序列中。
换句话说,不管输入了啥(几十张图或几小时视频),都不占用语言模型序列容量,这就规避了长视觉序列带来的巨额计算开销和显存占用。
有人可能会问了,那视觉信息如何融入到语言模型中呢?
为实现这一点,该团队提出了一种轻量化的 Hyper Attention 模块,它可以将一个已有的只能建模文本的 Transformer Block 扩展成一个能够同时做图文特征交互和文本建模的新模块。
通过在整个语言模型中稀疏地扩展4 个Transformer Block,mPLUG-Owl3 就能用非常小的代价将 LLM 升级成多模态 LLM。
视觉特征在从视觉编码器抽取出来后,会通过一个简单的线性映射把维度对齐到语言模型的维度。
随后,视觉特征只会在这 4 层 Transformer Block 与文本交互,由于视觉 Token 没有经过任何压缩,所以细粒度的信息都能得到保留。
下面来看一下Hyper Attention 内又是如何设计的。
Hyper Attention 为了让语言模型能感知到视觉特征,引入了一个Cross-Attention操作,将视觉特征作为 Key 和 Value,将语言模型的 hidden state 作为 Query 去析取视觉特征。
近年也有其他研究考虑将 Cross-Attention 用于多模态融合,比如 Flamingo 和 IDEFICS,但这些工作都没能取得较好的性能表现。
在 mPLUG-Owl3 的技术报告中,团队对比了 Flamingo 的设计,来进一步说明 Hyper Attention 的关键技术点:
首先,Hyper Attention 没有采用 Cross-Attention 和 Self-Attention 级联的设计,而是嵌入在 Self-Attention 区块内。
它的好处是大幅度降低了额外引入的新参数,使得模型更容易训练,并且训练和推理效率也能进一步提升。
其次,Hyper Attention 选择共享语言模型的 LayerNorm,因为 LayerNorm 所输出的分布正是 Attention 层已经训练稳定的分布,共享这一层对于稳定学习新引入的 Cross-Attention 至关重要。
事实上,Hyper Attention 采取了一种并行 Cross-Attention 和 Self-Attention 的策略,使用共享的 Query 去与视觉特征交互,通过一个 Adaptive Gate 融合两者的特征。
这使得 Query 可以根据自身语义针对性地选择与之相关的视觉特征。
团队发现,图像在原始上下文中与文本的相对位置关系对于模型更好的理解多模态输入非常重要。
为了建模这一性质,他们引入了一种多模态交错的旋转位置编码 MI-Rope 来给视觉的 Key 建模位置信息。
具体来说,他们预先记录了每张图片在原文中的位置信息,会取这一位置来计算对应的 Rope embedding,而同一张图的各个 patch 会共享这个 embedding。
此外,他们也在 Cross-Attention引入了 Attention mask,让原始上下文中在图片之前的文本不能看到后面的图片对应的特征。
概括而言,Hyper Attention 的这些设计点,为 mPLUG-Owl3 带来了进一步的效率提升,并且保障了它仍然能具备一流的多模态能力。
实验结果
通过在广泛的数据集上进行实验,mPLUG-Owl3 在大多数单图多模态 Benchmarks都能取得 SOTA 的效果,甚至不少测评还能超过模型尺寸更大的模型。
同时,在多图测评中,mPLUG-Owl3 同样超越了专门针对多图场景优化的 LLAVA-Next-Interleave 和 Mantis。
另外,在 LongVideoBench(52.1 分)这一专门评估模型对长视频理解的榜单上更是超越现有模型。
研发团队还提出了一个有趣的长视觉序列测评方法。
众所周知,真实的人机交互场景,并非所有图片都是为了用户问题服务的,历史上下文中会充斥着与问题无关的多模态内容,序列越长,这一现象越严重。
为了评估模型在长视觉序列输入中的抗干扰能力,他们基于 MMBench-dev 构建了一个新的测评数据集。
通过为每一个 MMBench 循环评估样本引入无关的图片并打乱图片顺序,再针对原本的图片进行提问,看模型是否能稳定地正确回复。(对于同一个问题,会构造 4 个选项顺序和干扰图片均不同的样本,全都答对才记一次正确回答。)
实验中根据输入图片数目分为了多个层级。
可以看出,没有经过多图训练的模型例如 Qwen-VL 和 mPLUG-Owl2 很快就败下阵来。
而经过多图训练的 LLAVA-Next-Interleave 和 Mantis 在最开始能和 mPLUG-Owl3 保持近似的衰减曲线,但随着图片数目达到了50这个量级,这些模型也不再能正确回答了。
而 mPLUG-Owl3 坚持到了400 张图片还能保持40% 的准确率。
不过有一说一,尽管 mPLUG-Owl3 超越了现有模型,但其准确率远未达到优秀水平,只能说这一测评方法揭示了所有模型未来需要进一步提升的长序列下的抗干扰能力。
更多详情欢迎查阅论文及代码。
论文:https://arxiv.org/abs/2408.04840
代码:https://github.com/X-PLUG/mPLUG-Owl/tree/main/mPLUG-Owl3
demo(抱抱脸):https://huggingface.co/spaces/mPLUG/mPLUG-Owl3
demo(魔搭社区):https://modelscope.cn/studios/iic/mPLUG-Owl3
7B 模型(抱抱脸):https://huggingface.co/mPLUG/mPLUG-Owl3-7B-240728
7B 模型(魔搭社区)https://modelscope.cn/models/iic/mPLUG-Owl3-7B-240728
— 完 —
投稿请发邮件到:
ai@qbitai.com
标题注明,告诉我们:
你是谁,从哪来,投稿内容
附上论文 / 项目主页链接,以及联系方式哦
我们会(尽量)及时回复你
点这里关注我,记得标星哦~
一键三连「分享」、「点赞」和「在看」
科技前沿进展日日相见 ~
以上是4 秒看完 2 小时电影!阿里发布通用多模态大模型 mPLUG-Owl3的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

Video Face Swap
使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

想象一下,一个人工智能模型,不仅拥有超越传统计算的能力,还能以更低的成本实现更高效的性能。这不是科幻,DeepSeek-V2[1],全球最强开源MoE模型来了。DeepSeek-V2是一个强大的专家混合(MoE)语言模型,具有训练经济、推理高效的特点。它由236B个参数组成,其中21B个参数用于激活每个标记。与DeepSeek67B相比,DeepSeek-V2性能更强,同时节省了42.5%的训练成本,减少了93.3%的KV缓存,最大生成吞吐量提高到5.76倍。DeepSeek是一家探索通用人工智

本站8月5日消息,阿里云宣布,2024云栖大会将于9月19日~21日在杭州云栖小镇举办,将设三日主论坛、400场分论坛与并行话题以及近四万平方米展区。云栖大会对公众免费开放,即日起公众可以通过云栖大会官网免费申请畅享票,另有5000元的全通票可购买,本站附门票网址:https://yunqi.aliyun.com/2024/ticket-list据介绍,云栖大会起源于2009年,最初命名为第一届中国网站发展论坛,2011年演变成阿里云开发者大会,2015年正式更名为“云栖大会”,至今已连续成功举

AI,的确正在改变数学。最近,一直十分关注这个议题的陶哲轩,转发了最近一期的《美国数学学会通报》(BulletinoftheAmericanMathematicalSociety)。围绕「机器会改变数学吗?」这个话题,众多数学家发表了自己的观点,全程火花四射,内容硬核,精彩纷呈。作者阵容强大,包括菲尔兹奖得主AkshayVenkatesh、华裔数学家郑乐隽、纽大计算机科学家ErnestDavis等多位业界知名学者。AI的世界已经发生了天翻地覆的变化,要知道,其中很多文章是在一年前提交的,而在这一

本月初,来自MIT等机构的研究者提出了一种非常有潜力的MLP替代方法——KAN。KAN在准确性和可解释性方面表现优于MLP。而且它能以非常少的参数量胜过以更大参数量运行的MLP。比如,作者表示,他们用KAN以更小的网络和更高的自动化程度重现了DeepMind的结果。具体来说,DeepMind的MLP有大约300,000个参数,而KAN只有约200个参数。KAN与MLP一样具有强大的数学基础,MLP基于通用逼近定理,而KAN基于Kolmogorov-Arnold表示定理。如下图所示,KAN在边上具

波士顿动力Atlas,正式进入电动机器人时代!昨天,液压Atlas刚刚「含泪」退出历史舞台,今天波士顿动力就宣布:电动Atlas上岗。看来,在商用人形机器人领域,波士顿动力是下定决心要和特斯拉硬刚一把了。新视频放出后,短短十几小时内,就已经有一百多万观看。旧人离去,新角色登场,这是历史的必然。毫无疑问,今年是人形机器人的爆发年。网友锐评:机器人的进步,让今年看起来像人类的开幕式动作、自由度远超人类,但这真不是恐怖片?视频一开始,Atlas平静地躺在地上,看起来应该是仰面朝天。接下来,让人惊掉下巴

特斯拉机器人Optimus最新视频出炉,已经可以在厂子里打工了。正常速度下,它分拣电池(特斯拉的4680电池)是这样的:官方还放出了20倍速下的样子——在小小的“工位”上,拣啊拣啊拣:这次放出的视频亮点之一在于Optimus在厂子里完成这项工作,是完全自主的,全程没有人为的干预。并且在Optimus的视角之下,它还可以把放歪了的电池重新捡起来放置,主打一个自动纠错:对于Optimus的手,英伟达科学家JimFan给出了高度的评价:Optimus的手是全球五指机器人里最灵巧的之一。它的手不仅有触觉

目标检测在自动驾驶系统当中是一个比较成熟的问题,其中行人检测是最早得以部署算法之一。在多数论文当中已经进行了非常全面的研究。然而,利用鱼眼相机进行环视的距离感知相对来说研究较少。由于径向畸变大,标准的边界框表示在鱼眼相机当中很难实施。为了缓解上述描述,我们探索了扩展边界框、椭圆、通用多边形设计为极坐标/角度表示,并定义一个实例分割mIOU度量来分析这些表示。所提出的具有多边形形状的模型fisheyeDetNet优于其他模型,并同时在用于自动驾驶的Valeo鱼眼相机数据集上实现了49.5%的mAP

写在前面项目链接:https://nianticlabs.github.io/mickey/给定两张图片,可以通过建立图片之间的对应关系来估计它们之间的相机姿态。通常,这些对应关系是二维到二维的,而我们估计的姿态在尺度上是不确定的。一些应用,例如随时随地实现即时增强现实,需要尺度度量的姿态估计,因此它们依赖于外部的深度估计器来恢复尺度。本文提出了MicKey,这是一个关键点匹配流程,能够够预测三维相机空间中的度量对应关系。通过学习跨图像的三维坐标匹配,我们能够在没有深度测试的情况下推断出度量相对
