首頁 科技週邊 人工智慧 多模態版Llama2上線,Meta發表AnyMAL

多模態版Llama2上線,Meta發表AnyMAL

Oct 03, 2023 pm 05:17 PM
meta 工程 llama2 anymal

在多个基准测试中均刷新了业界最好的 zero-shot 性能。

一个统一的模型,可以对不同模态输入内容(文本、图像、视频、音频、IMU 运动传感器数据)实现理解,并生成文本响应,技术基于 Llama 2,来自 Meta。

昨天,多模态大模型 AnyMAL 的研究吸引了 AI 研究社区的关注。

大型语言模型(LLM)以其巨大的规模和复杂性而闻名,它极大地增强了机器理解和表达人类语言的能力。LLM 的进步使视觉语言领域有了显著进步,弥合了图像编码器和 LLM 之间的差距,将它们的推理能力结合起来。先前的多模态 LLM 研究集中在结合文本和另一种模态的模型上,如文本和图像模型,或者集中在非开源的专有语言模型上。

如果有一种更好的方法能够实现多模态功能,将各种模态能够嵌入在LLM中使用,这会给我们带来不同的体验吗?

多模態版Llama2上線,Meta發表AnyMAL

                                   输出示例

为了解决这个问题,来自Meta的研究人员最近推出了AnyMAL(Any-Modality Augmented Language Model)。这是一个经过训练的多模态编码器集合,可以将来自各种模态(包括图像、视频、音频和IMU运动传感器数据)的数据转换为LLM的文本嵌入空间

多模態版Llama2上線,Meta發表AnyMAL

论文地址:https://huggingface.co/papers/2309.16058

根据说明,该研究的主要贡献如下所示:

  • 为构建多模态 LLM 提出了一种高效、可扩展的解决方案。本文提供了在大型数据集上预先训练的投影层,这些数据集包含多种模态(例如,2 亿张图像、220 万段音频、50 万 IMU 时间序列、2800 万段视频),所有数据集都与同一个大模型(LLaMA-2- 70B-chat)对齐,从而实现了交错式多模态上下文提示。

  • 本研究使用跨三种模式(图像、视频和音频)的多模态指令集对模型进行了进一步微调,涵盖了简单问答(QA)领域以外的各种不受限制的任务。该数据集包含高质量的人工收集指令数据,因此本研究将其作为复杂多模态推理任务的基准

  • 本文最佳模型在各种任务和模式的自动和人工评估中取得了很好的零误差性能,相较于现有文献中的模型,在 VQAv2 上的相对准确率提高了7.0%,在零误差 COCO 图像字幕上提高了8.4% 的 CIDEr,在 AudioCaps 上提高了14.5% 的 CIDEr,创造了新的 SOTA

方法

多模態版Llama2上線,Meta發表AnyMAL                                        方法概览

预训练模态对齐的内容需要进行改写

通过使用配对的多模态数据(包括特定的模态信号和文本叙述),本研究对LLM进行了预训练,以实现多模态理解能力,如图2所示。具体而言,我们为每个模态训练了一个轻量级适配器,将输入信号投射到特定LLM的文本标记嵌入空间中。这样,LLM的文本标记嵌入空间就变成了一个联合的标记嵌入空间,其中标记可以代表文本或其他模态

关于图像对齐的研究,我们使用了LAION-2B数据集的一个干净子集,并采用了CAT方法进行过滤,对任何可检测到的人脸进行了模糊处理。而对于音频对齐的研究,则使用了AudioSet(2.1M)、AudioCaps(46K)和CLOTHO(5K)数据集。此外,我们还使用了Ego4D数据集进行IMU和文本的对齐(528K)

对于大型数据集,要将预训练扩展到70B参数模型需要大量资源,通常需要使用FSDP封装器在多个GPU上对模型进行分片。为了有效地扩展训练规模,本文在多模态设置中实施了量化策略(4位和8位),其中冻结了模型的LLM部分,只有模态tokenizer是可训练的。这种方法将内存需求缩小了一个数量级。因此,70B AnyMAL能够在单个80GB VRAM GPU上就完成训练,batch size为4。与FSDP相比,本文提出的量化方法只使用了GPU资源的一半,却实现了相同的吞吐量

多模態版Llama2上線,Meta發表AnyMAL

利用多模態指令資料集進行微調的意思是使用多種模態的指令資料集來進行微調

為了進一步提高模型對不同輸入模態的指令跟隨能力,研究利用多模態指令調整(MM-IT)資料集進行了額外的微調。具體來說,我們將輸入連接為 [多模態版Llama2上線,Meta發表AnyMAL],這樣響應目標就同時以文字指令和模態輸入為基礎。研究對以下兩種情況進行消減:(1)在不改變 LLM 參數的情況下訓練投影層;或(2)使用低階適應(Low-Rank Adaptation)進一步調整 LM 行為。研究同時使用人工收集的指令調整資料集和合成資料。

實驗及結果

圖片標題生成是一種人工智慧技術,用於自動為圖像產生對應的標題。這項技術結合了電腦視覺和自然語言處理的方法,透過分析圖像的內容和特徵,以及對語義和語法的理解,產生與圖像相關的描述性標題。圖像標題生成在許多領域有廣泛的應用,包括圖像搜尋、圖像標註、圖像檢索等。透過自動化產生標題,可以提高圖像的可理解性和搜尋引擎的準確性,為用戶提供更好的圖像檢索和瀏覽體驗

表2 顯示了在COCO 和標有「詳細說明」 任務(MM-IT-Cap)的MM-IT 資料集子集上的零樣本影像字幕產生效能。可以看出, AnyMAL 變異體在這兩個資料集上的表現都明顯優於基線。值得注意的是,AnyMAL-13B 和 AnyMAL-70B 變體的性能沒有明顯差距。這一結果表明,底層 LLM 能力對圖像標題生成是一種人工智慧技術,用於自動為圖像生成相應的標題。這項技術結合了電腦視覺和自然語言處理的方法,透過分析圖像的內容和特徵,以及對語義和語法的理解,產生與圖像相關的描述性標題。圖像標題生成在許多領域有廣泛的應用,包括圖像搜尋、圖像標註、圖像檢索等。透過自動化產生標題,可以提高圖像的可理解性和搜尋引擎的準確性,為用戶提供更好的圖像檢索和瀏覽體驗任務的影響較小,但在很大程度上取決於資料規模和配準方法。

多模態版Llama2上線,Meta發表AnyMAL

需要進行的重寫是:對多模態推理任務進行人工評估

圖3 顯示,與基準( LLaVA:34.4% 的勝率和MiniGPT4:27.0% 的勝率)相比,AnyMAL 表現強勁,與人工標註的實際樣本的差距較小(41.1% 的勝率)。值得注意的是,使用完整指令集微調的模型表現出最高的優先勝率,顯示出與人類標註的反應相當的視覺理解和推理能力。另外值得注意的是,BLIP-2 和InstructBLIP 在這些開放式查詢中表現不佳(分別為4.1% 和16.7% 的優先勝出率),儘管它們在公開的VQA 基準測試中表現出色(見表4) 。

多模態版Llama2上線,Meta發表AnyMAL

VQA 基準

在表4中,我們展示了在Hateful Meme資料集、VQAv2 、TextVQA、ScienceQA、VizWiz和OKVQA上的零樣本性能,並與文獻中報告的各自基準上的零樣本結果進行了比較。我們的研究重點放在零樣本評估上,以便在推理時最準確地估計模型在開放式查詢上的表現

多模態版Llama2上線,Meta發表AnyMAL

視訊QA 基準

如表6 所示,研究在三個具有挑戰性的視訊QA 基準上對模型進行了評估。

多模態版Llama2上線,Meta發表AnyMAL

重新產生音訊字幕

#表 5 顯示了 AudioCaps 基準資料集上的重新產生音訊字幕結果。 AnyMAL 的表現明顯優於文獻中其他最先進的音訊字幕模型(例如,CIDEr 10.9pp,SPICE 5.8pp),這表明所提出的方法不僅適用於視覺,也適用於各種模態。與 7B 和 13B 變體相比,文本 70B 模型表現出了明顯的優勢。

多模態版Llama2上線,Meta發表AnyMAL

多模態版Llama2上線,Meta發表AnyMAL

有趣的是,根據從AnyMAL論文提交的方式、類型和時間推測,Meta似乎計劃透過其新推出的混合實境/元宇宙頭顯來收集多模態資料。這些研究成果可能會被整合到Meta的元宇宙產品線中,或者很快應用於消費級應用中

更多詳細內容請閱讀原文。

以上是多模態版Llama2上線,Meta發表AnyMAL的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

ControlNet作者又出爆款!一張圖生成繪畫全過程,兩天狂攬1.4k Star ControlNet作者又出爆款!一張圖生成繪畫全過程,兩天狂攬1.4k Star Jul 17, 2024 am 01:56 AM

同樣是圖生視頻,PaintsUndo走出了不一樣的路線。 ControlNet作者LvminZhang又開始整活了!這次瞄準繪畫領域。新項目PaintsUndo剛上線不久,就收穫1.4kstar(還在瘋狂漲)。項目地址:https://github.com/lllyasviel/Paints-UNDO透過這個項目,用戶輸入一張靜態圖像,PaintsUndo就能自動幫你生成整個繪畫的全過程視頻,從線稿到成品都有跡可循。繪製過程,線條變化多端甚是神奇,最終視頻結果和原始圖像非常相似:我們再來看一個完整的繪

登頂開源AI軟體工程師榜首,UIUC無Agent方案輕鬆解決SWE-bench真實程式設計問題 登頂開源AI軟體工程師榜首,UIUC無Agent方案輕鬆解決SWE-bench真實程式設計問題 Jul 17, 2024 pm 10:02 PM

AIxiv專欄是本站發布學術、技術內容的欄位。過去數年,本站AIxiv專欄接收通報了2,000多篇內容,涵蓋全球各大專院校與企業的頂尖實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或聯絡報道。投稿信箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com這篇論文的作者皆來自伊利諾大學香檳分校(UIUC)張令明老師團隊,包括:StevenXia,四年級博士生,研究方向是基於AI大模型的自動代碼修復;鄧茵琳,四年級博士生,研究方

新款經濟實惠的 Meta Quest 3S VR 頭戴裝置出現在 FCC 上,暗示即將推出 新款經濟實惠的 Meta Quest 3S VR 頭戴裝置出現在 FCC 上,暗示即將推出 Sep 04, 2024 am 06:51 AM

Meta Connect 2024 活動定於 9 月 25 日至 26 日舉行,在本次活動中,該公司預計將推出一款價格實惠的新型虛擬實境耳機。據傳這款 VR 耳機是 Meta Quest 3S,它似乎已經出現在 FCC 清單上。這個建議

OpenAI超級對齊團隊遺作:兩個大模型博弈一番,輸出更好懂了 OpenAI超級對齊團隊遺作:兩個大模型博弈一番,輸出更好懂了 Jul 19, 2024 am 01:29 AM

如果AI模型給的答案一點也看不懂,你敢用嗎?隨著機器學習系統在更重要的領域中得到應用,證明為什麼我們可以信任它們的輸出,並明確何時不應信任它們,變得越來越重要。獲得對複雜系統輸出結果信任的一個可行方法是,要求系統對其輸出產生一種解釋,這種解釋對人類或另一個受信任的系統來說是可讀的,即可以完全理解以至於任何可能的錯誤都可以被發現。例如,為了建立對司法系統的信任,我們要求法院提供清晰易讀的書面意見,解釋並支持其決策。對於大型語言模型來說,我們也可以採用類似的方法。不過,在採用這種方法時,確保語言模型生

首個超越GPT4o級開源模型! Llama 3.1洩密:4050億參數,下載連結、模型卡都有了 首個超越GPT4o級開源模型! Llama 3.1洩密:4050億參數,下載連結、模型卡都有了 Jul 23, 2024 pm 08:51 PM

快準備好你的GPU! Llama3.1終於現身了,不過出處卻不是Meta官方。今日,Reddit上新版Llama大模型洩漏的消息遭到了瘋傳,除了基礎模型,還包括8B、70B和最大參數的405B的基準測試結果。下圖為Llama3.1各版本與OpenAIGPT-4o、Llama38B/70B的比較結果。可以看到,即使是70B的版本,也在多項基準上超過了GPT-4o。圖源:https://x.com/mattshumer_/status/1815444612414087294顯然,3.1版本的8B和70

黎曼猜想显著突破!陶哲轩强推MIT、牛津新论文,37岁菲尔兹奖得主参与 黎曼猜想显著突破!陶哲轩强推MIT、牛津新论文,37岁菲尔兹奖得主参与 Aug 05, 2024 pm 03:32 PM

最近,被稱為千禧年七大難題之一的黎曼猜想迎來了新突破。黎曼猜想是數學中一個非常重要的未解決問題,與素數分佈的精確性質有關(素數是那些只能被1和自身整除的數字,它們在數論中扮演著基礎性的角色)。在當今的數學文獻中,已有超過一千個數學命題以黎曼猜想(或其推廣形式)的成立為前提。也就是說,黎曼猜想及其推廣形式一旦被證明,這一千多個命題將被確立為定理,對數學領域產生深遠的影響;而如果黎曼猜想被證明是錯誤的,那麼這些命題中的一部分也將隨之失去其有效性。新的突破來自MIT數學教授LarryGuth和牛津大學

首個基於Mamba的MLLM來了!模型權重、訓練程式碼等已全部開源 首個基於Mamba的MLLM來了!模型權重、訓練程式碼等已全部開源 Jul 17, 2024 am 02:46 AM

AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com。引言近年来,多模态大型语言模型(MLLM)在各个领域的应用取得了显著的成功。然而,作为许多下游任务的基础模型,当前的MLLM由众所周知的Transformer网络构成,这种网

arXiv論文可以發「彈幕」了,史丹佛alphaXiv討論平台上線,LeCun按讚 arXiv論文可以發「彈幕」了,史丹佛alphaXiv討論平台上線,LeCun按讚 Aug 01, 2024 pm 05:18 PM

乾杯!當論文討論細緻到詞句,是什麼體驗?最近,史丹佛大學的學生針對arXiv論文創建了一個開放討論論壇——alphaXiv,可以直接在任何arXiv論文之上發布問題和評論。網站連結:https://alphaxiv.org/其實不需要專門訪問這個網站,只需將任何URL中的arXiv更改為alphaXiv就可以直接在alphaXiv論壇上打開相應論文:可以精準定位到論文中的段落、句子:右側討論區,使用者可以發表問題詢問作者論文想法、細節,例如:也可以針對論文內容發表評論,例如:「給出至

See all articles