首页 科技周边 人工智能 UC伯克利成功开发通用视觉推理大模型,三位资深学者合力参与研究

UC伯克利成功开发通用视觉推理大模型,三位资深学者合力参与研究

Dec 04, 2023 pm 06:25 PM
理论 llava

仅靠视觉(像素)模型能走多远?UC 伯克利、约翰霍普金斯大学的新论文探讨了这一问题,并展示了大型视觉模型(LVM)在多种 CV 任务上的应用潜力。

最近一段时间以来,GPT 和 LLaMA 等大型语言模型 (LLM) 已经风靡全球。 

构建大型视觉模型 (LVM) 是一个备受关注的问题,我们需要什么来实现它呢?

LLaVA 等视觉语言模型所提供的思路很有趣,也值得探索,但根据动物界的规律,我们已经知道视觉能力和语言能力二者并不相关。比如许多实验都表明,非人类灵长类动物的视觉世界与人类的视觉世界非常相似,尽管它们和人类的语言体系「两模两样」。

最新的一篇论文讨论了另一个问题的答案,即我们仅靠像素本身能走多远。该论文由加州大学伯克利分校和约翰霍普金斯大学的研究人员撰写

UC伯克利成功开发通用视觉推理大模型,三位资深学者合力参与研究

  • 论文链接:https://arxiv.org/abs/2312.00785

  • 项目主页:https://yutongbai.com/lvm.html

研究者试图在 LVM 中效仿的 LLM 的关键特征:1)根据数据的规模增长进行为了扩展业务,我们需要寻找新的市场机会。我们计划进一步扩大产品线,以满足不断增长的需求。同时,我们将加强市场营销策略,提高品牌知名度。通过积极参与行业展览和推广活动,我们将努力开拓更多的客户群体。我们相信,通过这些努力,我们能够取得更大的成就并实现持续增长,2)通过提示(上下文学习)灵活地指定任务。 

他们指定了三个主要组件,即数据、架构和损失函数。

在数据上,研究者想要利用视觉数据中显著的多样性。首先只是未标注的原始图像和视频,然后利用过去几十年产生的各种标注视觉数据源(包括语义分割、深度重建、关键点、多视图 3D 对象等)。他们定义了一种通用格式 —— 「视觉句子」(visual sentence),用它来表征这些不同的注释,而不需要任何像素以外的元知识。训练集的总大小为 16.4 亿图像 / 帧。

在架构上,研究者使用大型 transformer 架构(30 亿参数),在表示为 token 序列的视觉数据上进行训练,并使用学得的 tokenizer 将每个图像映射到 256 个矢量量化的 token 串。

在损失函数上,研究者从自然语言社区汲取灵感,即掩码 token 建模已经「让位给了」序列自回归预测方法。一旦图像、视频、标注图像都可以表示为序列,则训练的模型可以在预测下一个 token 时最小化交叉熵损失。

通过这一极其简单的设计,研究者呈现了以下一些值得注意的行为:

  • 随着模型尺寸和数据大小的增加,模型会自动展现适当的为了扩展业务,我们需要寻找新的市场机会。我们计划进一步扩大产品线,以满足不断增长的需求。同时,我们将加强市场营销策略,提高品牌知名度。通过积极参与行业展览和推广活动,我们将努力开拓更多的客户群体。我们相信,通过这些努力,我们能够取得更大的成就并实现持续增长行为

  • 现在很多不同的视觉任务可以通过在测试时设计合适的 prompt 来解决。虽然不像定制化、专门训练的模型那样获得高性能的结果, 但单一视觉模型能够解决如此多的任务这一事实非常令人鼓舞;

  • 大量未经监督的数据对各种视觉任务的性能都有显著的帮助

  • 在处理分布外数据和执行新任务时,已经出现了通用视觉推理能力存在的迹象,但仍需要进一步的研究

论文共同一作、约翰霍普金斯大学 CS 四年级博士生、伯克利访问博士生 Yutong Bai 发推宣传了她们的工作。

UC伯克利成功开发通用视觉推理大模型,三位资深学者合力参与研究

原文图源来自推特账号:https://twitter.com/YutongBAI1002/status/1731512110247473608

在论文作者中,后三位都是 UC 伯克利在 CV 领域的资深学者。Trevor Darrell 教授是伯克利人工智能研究实验室 BAIR 创始联合主任、Jitendra Malik 教授获得过 2019 年 IEEE 计算机先驱奖、 Alexei A. Efros 教授尤以最近邻研究而闻名。

UC伯克利成功开发通用视觉推理大模型,三位资深学者合力参与研究

从左到右依次为 Trevor Darrell、Jitendra Malik、Alexei A. Efros。

方法介绍

文章使用两阶段方法:1)训练一个大型视觉tokenizer(对单个图像进行操作),能够将每个图像转换为一系列视觉token;2)在视觉句子上训练自回归transformer模型,每个句子都表示为一系列token。方法如图2所示

UC伯克利成功开发通用视觉推理大模型,三位资深学者合力参与研究

图像 Token 化

为了将 Transformer 模型应用于图像,典型的操作包括:将图像划分为 patch,并将其视为序列;或者使用预训练的图像 tokenizer,例如 VQVAE 或 VQGAN,将图像特征聚集到离散 token 网格中。本文采用后一种方法,即用 VQGAN 模型生成语义 token。

LVM 框架包括编码和解码机制,还具有量化层,其中编码器和解码器是用卷积层构建的。编码器配备了多个下采样模块来收缩输入的空间维度,而解码器配备了一系列等效的上采样模块以将图像恢复到其初始大小。对于给定的图像,VQGAN tokenizer 会生成 256 个离散 token。

VQGAN 架构在本文中采用了 Chang 等人提出的实现细节,并遵循了他们的设置。具体而言,下采样因子为 f=16,码本大小为 8192。这意味着对于大小为 256×256 的图像,VQGAN tokenizer 会生成 16×16=256 个 token,每个 token 可以采用 8192 个不同的值。此外,本文在 LAION 5B 数据集的 1.5B 子集上进行了 tokenizer 的训练

视觉句子序列建模

使用 VQGAN 将图像转换为离散 token 后,本文通过将多个图像中的离散 token 连接成一维序列,并将视觉句子视为统一序列。重要的是,所有视觉句子都没有进行特殊处理 —— 即不使用任何特殊的 token 来指示特定的任务或格式。 

UC伯克利成功开发通用视觉推理大模型,三位资深学者合力参与研究

视觉句子的功能是将不同的视觉数据格式化成统一的图像序列结构

实现细节。在将视觉句子中的每个图像 token 化为 256 个 token 后,本文将它们连接起来形成一个 1D token 序列。在视觉 token 序列上,本文的 Transformer 模型实际上与自回归语言模型相同,因此他们采用 LLaMA 的 Transformer 架构。

本内容使用4096个token的上下文长度,与语言模型相似。在每个视觉句子的开头添加一个[BOS](句子开头)token,末尾添加一个[EOS](句子结尾)token,并在训练期间使用序列拼接以提高效率

本文在整个 UVDv1 数据集(4200 亿个 token)上训练模型,总共训练了 4 个具有不同参数数量的模型:3 亿、6 亿、10 亿和 30 亿。 

实验结果需要被重写

该研究进行实验评估了模型的为了扩展业务,我们需要寻找新的市场机会。我们计划进一步扩大产品线,以满足不断增长的需求。同时,我们将加强市场营销策略,提高品牌知名度。通过积极参与行业展览和推广活动,我们将努力开拓更多的客户群体。我们相信,通过这些努力,我们能够取得更大的成就并实现持续增长能力,以及理解和回答各种任务的能力。

为了扩展业务,我们需要寻找新的市场机会。我们计划进一步扩大产品线,以满足不断增长的需求。同时,我们将加强市场营销策略,提高品牌知名度。通过积极参与行业展览和推广活动,我们将努力开拓更多的客户群体。我们相信,通过这些努力,我们能够取得更大的成就并实现持续增长

根据图3所示,该研究首先对不同尺寸的LVM进行了训练损失的检查

UC伯克利成功开发通用视觉推理大模型,三位资深学者合力参与研究

如下图 4 所示,较大的模型在所有任务中复杂度都是较低的,这表明模型的整体性能可以迁移到一系列下游任务上。

UC伯克利成功开发通用视觉推理大模型,三位资深学者合力参与研究

根据图5所示,每个数据组件都对下游任务有重要的影响。LVM不仅可以从更大的数据中受益,而且还能随着数据集的多样性而改进

UC伯克利成功开发通用视觉推理大模型,三位资深学者合力参与研究

重写内容,而不改变原意,需要将语言重写为中文。 应该出现原句

为了测试 LVM 对各种 prompt 的理解能力,该研究首先在序列推理任务上对 LVM 进行评估实验。其中,prompt 非常简单:向模型提供 7 张图像的序列,要求它预测下一张图像,实验结果需要被重写如下图 6 所示:

UC伯克利成功开发通用视觉推理大模型,三位资深学者合力参与研究

该研究还将给定类别的项目列表视为一个序列,让 LVM 预测同一类的图像,实验结果需要被重写如下图 15 所示:

UC伯克利成功开发通用视觉推理大模型,三位资深学者合力参与研究

那么,需要多少上下文(context)才能准确预测后续帧?

在这项研究中,我们对模型的帧生成困惑度进行了评估,这是通过给出不同长度(1 到 15 帧)的上下文 prompt 来实现的。结果显示,困惑度随着帧数的增加而逐渐改善。具体数据如下图 7 所示,困惑度从 1 帧到 11 帧有明显的改善,之后趋于稳定(62.1 → 48.4)

UC伯克利成功开发通用视觉推理大模型,三位资深学者合力参与研究

Analogy Prompt

这项研究还测试了LVM的高级解释能力,通过评估更复杂的提示结构,如类比提示

下图 8 显示了对许多任务进行 Analogy Prompt 的定性结果:

UC伯克利成功开发通用视觉推理大模型,三位资深学者合力参与研究

根据与视觉 Prompting 的比较,可以看出序列 LVM 在几乎所有任务上都比以前的方法更优

UC伯克利成功开发通用视觉推理大模型,三位资深学者合力参与研究

合成任务。图9显示了使用单个提示将多个任务组合在一起的结果

UC伯克利成功开发通用视觉推理大模型,三位资深学者合力参与研究

其他 prompt

研究者试图通过向模型提供它以往未见过的各种 prompt,来观察模型的为了扩展业务,我们需要寻找新的市场机会。我们计划进一步扩大产品线,以满足不断增长的需求。同时,我们将加强市场营销策略,提高品牌知名度。通过积极参与行业展览和推广活动,我们将努力开拓更多的客户群体。我们相信,通过这些努力,我们能够取得更大的成就并实现持续增长能力到底怎样。下图 10 展示了一些运行良好的此类 prompt。

UC伯克利成功开发通用视觉推理大模型,三位资深学者合力参与研究

下图 11 展示了一些用文字难以描述的 prompt,这些任务上 LVM 最终可能会胜过 LLM。

UC伯克利成功开发通用视觉推理大模型,三位资深学者合力参与研究

在非语言人类 IQ 测试中,图 13 展示了典型视觉推理问题的初步定性结果

UC伯克利成功开发通用视觉推理大模型,三位资深学者合力参与研究

阅读原文,了解更多细节。

以上是UC伯克利成功开发通用视觉推理大模型,三位资深学者合力参与研究的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Clothoff.io

Clothoff.io

AI脱衣机

AI Hentai Generator

AI Hentai Generator

免费生成ai无尽的。

热门文章

R.E.P.O.能量晶体解释及其做什么(黄色晶体)
3 周前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳图形设置
3 周前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.如果您听不到任何人,如何修复音频
3 周前 By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25:如何解锁Myrise中的所有内容
3 周前 By 尊渡假赌尊渡假赌尊渡假赌

热工具

记事本++7.3.1

记事本++7.3.1

好用且免费的代码编辑器

SublimeText3汉化版

SublimeText3汉化版

中文版,非常好用

禅工作室 13.0.1

禅工作室 13.0.1

功能强大的PHP集成开发环境

Dreamweaver CS6

Dreamweaver CS6

视觉化网页开发工具

SublimeText3 Mac版

SublimeText3 Mac版

神级代码编辑软件(SublimeText3)

突破传统缺陷检测的界限,\'Defect Spectrum\'首次实现超高精度丰富语义的工业缺陷检测。 突破传统缺陷检测的界限,\'Defect Spectrum\'首次实现超高精度丰富语义的工业缺陷检测。 Jul 26, 2024 pm 05:38 PM

在现代制造业中,精准的缺陷检测不仅是保证产品质量的关键,更是提升生产效率的核心。然而,现有的缺陷检测数据集常常缺乏实际应用所需的精确度和语义丰富性,导致模型无法识别具体的缺陷类别或位置。为了解决这一难题,由香港科技大学广州和思谋科技组成的顶尖研究团队,创新性地开发出了“DefectSpectrum”数据集,为工业缺陷提供了详尽、语义丰富的大规模标注。如表一所示,相比其他工业数据集,“DefectSpectrum”数据集提供了最多的缺陷标注(5438张缺陷样本),最细致的缺陷分类(125种缺陷类别

英伟达对话模型ChatQA进化到2.0版本,上下文长度提到128K 英伟达对话模型ChatQA进化到2.0版本,上下文长度提到128K Jul 26, 2024 am 08:40 AM

开放LLM社区正是百花齐放、竞相争鸣的时代,你能看到Llama-3-70B-Instruct、QWen2-72B-Instruct、Nemotron-4-340B-Instruct、Mixtral-8x22BInstruct-v0.1等许多表现优良的模型。但是,相比于以GPT-4-Turbo为代表的专有大模型,开放模型在很多领域依然还有明显差距。在通用模型之外,也有一些专精关键领域的开放模型已被开发出来,比如用于编程和数学的DeepSeek-Coder-V2、用于视觉-语言任务的InternVL

谷歌AI拿下IMO奥数银牌,数学推理模型AlphaProof面世,强化学习 is so back 谷歌AI拿下IMO奥数银牌,数学推理模型AlphaProof面世,强化学习 is so back Jul 26, 2024 pm 02:40 PM

对于AI来说,奥数不再是问题了。本周四,谷歌DeepMind的人工智能完成了一项壮举:用AI做出了今年国际数学奥林匹克竞赛IMO的真题,并且距拿金牌仅一步之遥。上周刚刚结束的IMO竞赛共有六道赛题,涉及代数、组合学、几何和数论。谷歌提出的混合AI系统做对了四道,获得28分,达到了银牌水平。本月初,UCLA终身教授陶哲轩刚刚宣传了百万美元奖金的AI数学奥林匹克竞赛(AIMO进步奖),没想到7月还没过,AI的做题水平就进步到了这种水平。IMO上同步做题,做对了最难题IMO是历史最悠久、规模最大、最负

Nature观点,人工智能在医学中的测试一片混乱,应该怎么做? Nature观点,人工智能在医学中的测试一片混乱,应该怎么做? Aug 22, 2024 pm 04:37 PM

编辑|ScienceAI基于有限的临床数据,数百种医疗算法已被批准。科学家们正在讨论由谁来测试这些工具,以及如何最好地进行测试。DevinSingh在急诊室目睹了一名儿科患者因长时间等待救治而心脏骤停,这促使他探索AI在缩短等待时间中的应用。Singh利用了SickKids急诊室的分诊数据,与同事们建立了一系列AI模型,用于提供潜在诊断和推荐测试。一项研究表明,这些模型可以加快22.3%的就诊速度,将每位需要进行医学检查的患者的结果处理速度加快近3小时。然而,人工智能算法在研究中的成功只是验证此

数百万晶体数据训练,解决晶体学相位问题,深度学习方法PhAI登Science 数百万晶体数据训练,解决晶体学相位问题,深度学习方法PhAI登Science Aug 08, 2024 pm 09:22 PM

编辑|KX时至今日,晶体学所测定的结构细节和精度,从简单的金属到大型膜蛋白,是任何其他方法都无法比拟的。然而,最大的挑战——所谓的相位问题,仍然是从实验确定的振幅中检索相位信息。丹麦哥本哈根大学研究人员,开发了一种解决晶体相问题的深度学习方法PhAI,利用数百万人工晶体结构及其相应的合成衍射数据训练的深度学习神经网络,可以生成准确的电子密度图。研究表明,这种基于深度学习的从头算结构解决方案方法,可以以仅2埃的分辨率解决相位问题,该分辨率仅相当于原子分辨率可用数据的10%到20%,而传统的从头算方

为大模型提供全新科学复杂问答基准与测评体系,UNSW、阿贡、芝加哥大学等多家机构联合推出SciQAG框架 为大模型提供全新科学复杂问答基准与测评体系,UNSW、阿贡、芝加哥大学等多家机构联合推出SciQAG框架 Jul 25, 2024 am 06:42 AM

编辑|ScienceAI问答(QA)数据集在推动自然语言处理(NLP)研究发挥着至关重要的作用。高质量QA数据集不仅可以用于微调模型,也可以有效评估大语言模型(LLM)的能力,尤其是针对科学知识的理解和推理能力。尽管当前已有许多科学QA数据集,涵盖了医学、化学、生物等领域,但这些数据集仍存在一些不足。其一,数据形式较为单一,大多数为多项选择题(multiple-choicequestions),它们易于进行评估,但限制了模型的答案选择范围,无法充分测试模型的科学问题解答能力。相比之下,开放式问答

自动识别最佳分子,降低合成成本,MIT开发分子设计决策算法框架 自动识别最佳分子,降低合成成本,MIT开发分子设计决策算法框架 Jun 22, 2024 am 06:43 AM

编辑|紫罗AI在简化药物发现方面的应用正在爆炸式增长。从数十亿种候选分子中筛选出可能具有开发新药所需特性的分子。需要考虑的变量太多了,从材料价格到出错的风险,即使科学家使用AI,权衡合成最佳候选分子的成本也不是一件容易的事。在此,MIT研究人员开发了一个定量决策算法框架SPARROW,来自动识别最佳分子候选物,从而最大限度地降低合成成本,同时最大限度地提高候选物具有所需特性的可能性。该算法还确定了合成这些分子所需的材料和实验步骤。SPARROW考虑了一次合成一批分子的成本,因为多个候选分子通常可

SOTA性能,厦大多模态蛋白质-配体亲和力预测AI方法,首次结合分子表面信息 SOTA性能,厦大多模态蛋白质-配体亲和力预测AI方法,首次结合分子表面信息 Jul 17, 2024 pm 06:37 PM

编辑|KX在药物研发领域,准确有效地预测蛋白质与配体的结合亲和力对于药物筛选和优化至关重要。然而,目前的研究没有考虑到分子表面信息在蛋白质-配体相互作用中的重要作用。基于此,来自厦门大学的研究人员提出了一种新颖的多模态特征提取(MFE)框架,该框架首次结合了蛋白质表面、3D结构和序列的信息,并使用交叉注意机制进行不同模态之间的特征对齐。实验结果表明,该方法在预测蛋白质-配体结合亲和力方面取得了最先进的性能。此外,消融研究证明了该框架内蛋白质表面信息和多模态特征对齐的有效性和必要性。相关研究以「S

See all articles