现在甚至有了大型的多模态高分辨率文档!
这项技术不仅能够准确识别图像中的信息,还能够根据用户需求调用自身的知识库来回答问题
比如,看到图中马里奥的界面,直接就回答出了这是任天堂公司的作品。
这个模型是由字节跳动和中国科学技术大学合作研究的,于2023年11月24日上传至arXiv
在此研究中,作者团队提出DocPedia,一个统一的高分辨率多模态文档大模型DocPedia。
在此研究中,作者用一种新的方式解决了现有模型不能解析高分辨文档图像的短板。
DocPedia分辨率可达2560×2560,而目前业内先进多模态大模型如LLaVA、MiniGPT-4等处理图像分辨率上限为336×336,无法解析高分辨率的文档图像。
那么,这款模型究竟表现如何,又使用了怎样的优化方式呢?
在这篇论文中,作者展示了DocPedia高分辨图文理解的示例。可以观察到DocPedia有能力理解指令内容,并从高分辨率的文档图像和自然场景图像中准确地提取相关的图文信息
比如这组图中,DocPedia轻松从图片中挖掘出了车牌号、电脑配置等文本信息,甚至手写文字也能准确判断。
结合图像中的文本信息,DocPedia还可以利用大模型推理能力,根据上下文分析问题。
DocPedia在读取完图片信息后,还会根据其丰富的世界知识库,回答图像中未展示的扩展内容
下表定量对比了现有的一些多模态大模型和DocPedia的关键信息抽取(KIE)和视觉问答(VQA)能力。
通过提升分辨率和采用有效的训练方法,我们可以看到DocPedia在各项测试基准上都取得了显着的提升
那么,DocPedia是如何实现这样的效果的呢呢?
DocPedia的训练分为两个阶段:预训练和微调。为了训练DocPedia,作者团队收集了包含各类文档的大量图文数据,并构建指令微调数据集。
在预训练阶段,大型语言模型将被冻结,而只优化视觉编码器的部分,以使其输出的token表征空间与大型语言模型保持一致
在这个阶段,作者团队提出主要训练DocPedia的感知能力,包括对文字和自然场景的感知
预训练任务包括文字检测、文字识别、端到端OCR、段落阅读、全文阅读,以及图像文字说明。
在微调阶段,大型语言模型解除冻结,进行端到端整体优化
作者团队提出了感知-理解联合训练策略:在原有的低阶感知任务基础上,增加了文档理解和场景图像两种高阶的偏语义理解任务
这样一种感知-理解联合训练策略,进一步提高了DocPedia的性能。
在分辨率问题的策略上,与现有方法不同,DocPedia从频域的角度出发去解决。
在处理高分辨率文档图像时,DocPedia会首先提取其DCT系数矩阵。这个矩阵可以在不损失原图像的图文信息的情况下,将其空间分辨率下采样8倍
经过这一步骤后,我们会使用级联的频域适配器(Frequency Adapter)将输入信号传递给视觉编码器(Vision Encoder),以进行更深层次的分辨率压缩和特征提取
通过此方法,一张2560×2560的图像,其图文信息可以用1600个token表示。
该方法相较于直接将原始图像输入到视觉编码器(如Swin Transformer)中,token数量减少4倍。
最后,这些token与指令转换而来的token进行序列维度拼接,输入到大模型进行回答。
消融实验的结果显示,提高分辨率和进行感知-理解联合微调是提升DocPedia性能的两个重要因素
下图对比了DocPedia对于一张论文图像以及同一个指令,在不同输入尺度下的回答。可以看到,当且仅当分辨率提升至2560×2560时,DocPedia回答正确。
下图则对比了DocPedia对于同一张场景文字图像以及同一个指令,在不同微调策略下模型的回答。
通过这个例子可以看出,经过感知-理解联合微调的模型,能够准确地进行文字识别和语义问答
请点击以下链接查看论文:https://arxiv.org/abs/2311.11810
以上是突破分辨率极限:字节联合中科大揭示多模态文档大模型的详细内容。更多信息请关注PHP中文网其他相关文章!