ホームページ テクノロジー周辺機器 AI マルチモーダル大型モデルが疎らで、3B モデル MoE-LLaVA は LLaVA-1.5-7B に匹敵します

マルチモーダル大型モデルが疎らで、3B モデル MoE-LLaVA は LLaVA-1.5-7B に匹敵します

Feb 01, 2024 pm 05:15 PM
業界 スパースモデル 大規模な視覚言語モデル

大規模ビジュアル言語モデル (LVLM) は、モデルをスケーリングすることでパフォーマンスを向上させることができます。ただし、パラメーター サイズを増やすと、各トークンの計算によってすべてのモデル パラメーターがアクティブ化されるため、トレーニングと推論のコストが増加します。

北京大学、中山大学、その他の機関の研究者らは共同で、マルチモーダル学習とモデルのスパース性に関連するパフォーマンス低下の問題を解決するために、MoE-Tuning と呼ばれる新しいトレーニング戦略を提案しました。 MoE-Tuning は、驚くほど多くのパラメーターを持ちながら一定の計算コストを備えたスパース モデルを構築できます。さらに、研究者らは、MoE-LLaVA フレームワークと呼ばれる、MoE に基づく新しいスパース LVLM アーキテクチャも提案しました。このフレームワークでは、上位 k 個のエキスパートのみがルーティング アルゴリズムを通じてアクティブ化され、残りのエキスパートは非アクティブなままになります。このようにして、MoE-LLaVA フレームワークは、展開プロセス中にエキスパート ネットワークのリソースをより効率的に利用できます。これらの研究結果は、LVLM モデルのマルチモーダル学習とモデルのスパース性の課題を解決するための新しいソリューションを提供します。

マルチモーダル大型モデルが疎らで、3B モデル MoE-LLaVA は LLaVA-1.5-7B に匹敵します

  • 論文アドレス: https://arxiv.org/abs/2401.15947

  • プロジェクト アドレス: https://github.com/PKU-YuanGroup/MoE-LLaVA

  • デモ アドレス: https://huggingface.co/spaces/LanguageBind/MoE-LLaVA

  • 論文タイトル: MoE-LLaVA: 大規模ビジョン言語モデルの専門家の混合

MoE-LLaVA には 3B のスパース アクティベーション パラメータしかありませんが、パフォーマンスは同様ですLLaVA-1.5-7B は、さまざまな視覚理解データセットで同等であり、物体錯覚ベンチマークでは LLaVA-1.5-13B を上回っています。 MoE-LLaVA を通じて、この研究はスパース LVLM のベンチマークを確立し、より効率的かつ効果的なマルチモーダル学習システムを開発するための将来の研究に貴重な洞察を提供することを目的としています。 MoE-LLaVA チームは、すべてのデータ、コード、モデルをオープンにしました。

マルチモーダル大型モデルが疎らで、3B モデル MoE-LLaVA は LLaVA-1.5-7B に匹敵します

図 1 MoE-LLaVA の幻覚性能と他の LVLM の比較

メソッドの紹介

MoE-LLaVA では 3 段階のトレーニング戦略を採用しています。

マルチモーダル大型モデルが疎らで、3B モデル MoE-LLaVA は LLaVA-1.5-7B に匹敵します

図 2 MoE チューニングのフローチャート

として図 2 に示すように、ビジョン エンコーダは入力画像を処理してビジュアル トークン シーケンスを取得します。投影レイヤーは、ビジュアル トークンを LLM が許容できる次元にマッピングするために使用されます。同様に、画像とペアになったテキストは単語埋め込みレイヤーを通じて投影され、シーケンス テキスト トークンが取得されます。

フェーズ 1: 図 2 に示すように、フェーズ 1 の目標は、ビジュアル トークンを LLM に適応させ、LLM が画像内のエンティティを理解できるようにすることです。 MoE-LLaVA は、MLP を使用して画像トークンを LLM の入力ドメインに投影します。これは、小さな画像パッチが LLM によって疑似テキスト トークンとして扱われることを意味します。この段階で、LLM は画像を記述し、より高レベルの画像のセマンティクスを理解するようにトレーニングされます。この段階では、MoE レイヤーは LVLM に適用されません。

マルチモーダル大型モデルが疎らで、3B モデル MoE-LLaVA は LLaVA-1.5-7B に匹敵します

図 3 より具体的なトレーニング フレームワークとトレーニング戦略

フェーズ 2: マルチモーダル指示データの使用チューニングは、大型モデルの能力と制御性を向上させるための重要なテクノロジーであり、この段階では、LLM はマルチモーダル理解機能を備えた LVLM に調整されています。この段階では、研究では、画像論理的推論やテキスト認識などの高度なタスクを含む、より複雑な命令が追加されます。これには、モデルがより強力なマルチモーダル理解能力を必要とします。一般に、この時点で密モデルの LVLM がトレーニングされますが、研究チームは、LLM を LVLM に変換し、同時にモデルをスパース化することが困難であることを発見しました。したがって、MoE-LLaVA は、スパース モデルの学習の困難さを軽減するために、第 2 段階の重みを第 3 段階の初期化として使用します。

フェーズ 3: MoE-LLaVA は、エキスパート セットの初期化重みとして FFN の複数のコピーをコピーします。ビジュアル トークンとテキスト トークンが MoE レイヤーに入力されると、ルーターは各トークンとエキスパートの一致する重みを計算し、各トークンは最も一致する上位 k 個のエキスパートに送信されて処理され、最終的にはルーターの重み 重み付けされた合計が出力に集約されます。トップ k のエキスパートがアクティブ化されると、残りのエキスパートは非アクティブなままとなり、このモデルは無限の可能性のある疎な経路を持つ MoE-LLaVA を構成します。

#実験

##図 4 に示すように、 MoE-LLaVA はソフトルーターを備えた LVLM ベースの最初のスパースモデルであるため、この研究では以前のモデルをデンスモデルとして要約します。研究チームは、5つの画像質問と回答ベンチマークでMoE-LLaVAのパフォーマンスを検証し、アクティブ化されたパラメータの量と画像解像度を報告しました。 SOTA 方式 LLaVA-1.5 と比較して、MoE-LLaVA-2.7B×4 は強力な画像理解能力を示し、5 つのベンチマークにおけるパフォーマンスは LLaVA-1.5 に非常に近いです。このうち、MoE-LLaVA は 3.6B スパース活性化パラメータを使用し、SQAI で LLaVA-1.5-7B を 1.9% 上回っています。 MoE-LLaVA の疎な構造により、IDEFICS-80B を完全に超えるには 2.6B のアクティベーション パラメータのみが必要であることは注目に値します。

マルチモーダル大型モデルが疎らで、3B モデル MoE-LLaVA は LLaVA-1.5-7B に匹敵します

#図 4 9 つのベンチマークにおける MoE-LLaVA のパフォーマンス
さらに、研究チームは、同等のアクティベーション下で GQA と VisWiz でそれぞれ TinyGPT-V を 27.5% および 10% 上回った最近の小型視覚言語モデル TinyGPT-V、MoE-LLaVA-1.8B×4 にも注目しました。これは、MoE-LLaVA の自然視覚における強力な理解能力を示しています。
MoE-LLaVA のマルチモーダル理解機能をより包括的に検証するために、この研究では 4 つのベンチマーク ツールキットでモデルのパフォーマンスを評価しました。ベンチマーク ツールキットは、モデルが自然言語で質問に回答できるかどうかを検証するためのツールキットです。通常、回答はオープンであり、固定のテンプレートはありません。図 4 に示すように、MoE-LLaVA-1.8B×4 は、より大きな画像解像度を使用する Qwen-VL よりも優れたパフォーマンスを示します。これらの結果は、疎モデルである MoE-LLaVA が、より少ない活性化パラメーターで密モデルと同等またはそれを超えるパフォーマンスを達成できることを示しています。

マルチモーダル大型モデルが疎らで、3B モデル MoE-LLaVA は LLaVA-1.5-7B に匹敵します#図 5 幻覚物体検出における MoE-LLaVA の性能評価

この研究では、POPE 評価パイプラインを使用して MoE-LLaVA の物体の錯視を検証します。結果は図 5 に示されています。MoE-LLaVA は最高のパフォーマンスを示しています。これは、MoE-LLaVA が一貫した画像を生成する傾向があることを意味します指定された画像のオブジェクト。具体的には、MoE-LLaVA-1.8B×4 は活性化パラメーター 2.2B で LLaVA を上回りました。さらに、研究チームは、MoE-LLaVAのyes比率が比較的バランスの取れた状態にあることを観察し、これはスパースモデルMoE-LLaVAが問題に応じて正しいフィードバックを行うことができることを示しています。

#図 6 エキスパートによる負荷の視覚化マルチモーダル大型モデルが疎らで、3B モデル MoE-LLaVA は LLaVA-1.5-7B に匹敵します

図 6 表示ScienceQA で MoE-LLaVA-2.7B×4-Top2 のエキスパート ロードを受けました。全体として、トレーニングの初期化中、すべての MoE レイヤーのエキスパートの負荷は比較的バランスが取れています。しかし、モデルが徐々に疎になると、レイヤー 17 から 27 の専門家の負荷が突然増加し、ほぼすべてのトークンをカバーすることさえあります。浅い層 5 ~ 11 では、主にエキスパート 2、3、4 が協力して作業します。 Expert 1 はレイヤー 1 ~ 3 でほぼ独占的に機能し、モデルが深くなるにつれて徐々に作業から外れることは注目に値します。したがって、MoE-LLaVA の専門家は、特定のルールに従って専門家の分業を可能にする特定のパターンを学習しました。

#図 7 モーダル分布の視覚化

##図 7 は、さまざまな専門家のモーダル分布を示しています。この研究では、テキストと画像のルーティング分布が非常に似ていることがわかり、たとえば、エキスパート 3 がレイヤー 17 ~ 27 で熱心に作業した場合、それによって処理されるテキストと画像の割合は類似しています。これは、MoE-LLaVA がモダリティを明確に優先していないことを示しています。

この研究では、トークン レベルで専門家の行動を観察し、ダウンストリーム タスクにおけるスパース ネットワーク内のすべてのトークンの軌跡も追跡しました。図 8 に示すように、この研究では、テキストと画像のすべての活性化された経路について、PCA を使用して次元を削減し、主要な 10 の経路を取得しました。研究チームは、目に見えないテキストトークンまたは画像トークンの場合、MoE-LLaVA はモデルの深さに対処するために常に専門家 2 と 3 を派遣することを好むことを発見しました。エキスパート 1 と 4 は、初期化されたトークンを扱う傾向があります。これらの結果は、マルチモーダル学習における疎モデルの動作をより深く理解し、未知の可能性を探るのに役立ちます。

マルチモーダル大型モデルが疎らで、3B モデル MoE-LLaVA は LLaVA-1.5-7B に匹敵します

図 8 活性化された経路の視覚化

以上がマルチモーダル大型モデルが疎らで、3B モデル MoE-LLaVA は LLaVA-1.5-7B に匹敵しますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

DeepMind ロボットが卓球をすると、フォアハンドとバックハンドが空中に滑り出し、人間の初心者を完全に打ち負かしました DeepMind ロボットが卓球をすると、フォアハンドとバックハンドが空中に滑り出し、人間の初心者を完全に打ち負かしました Aug 09, 2024 pm 04:01 PM

でももしかしたら公園の老人には勝てないかもしれない?パリオリンピックの真っ最中で、卓球が注目を集めています。同時に、ロボットは卓球のプレーにも新たな進歩をもたらしました。先ほど、DeepMind は、卓球競技において人間のアマチュア選手のレベルに到達できる初の学習ロボット エージェントを提案しました。論文のアドレス: https://arxiv.org/pdf/2408.03906 DeepMind ロボットは卓球でどれくらい優れていますか?おそらく人間のアマチュアプレーヤーと同等です: フォアハンドとバックハンドの両方: 相手はさまざまなプレースタイルを使用しますが、ロボットもそれに耐えることができます: さまざまなスピンでサーブを受ける: ただし、ゲームの激しさはそれほど激しくないようです公園の老人。ロボット、卓球用

初のメカニカルクロー!元羅宝は2024年の世界ロボット会議に登場し、家庭に入ることができる初のチェスロボットを発表した 初のメカニカルクロー!元羅宝は2024年の世界ロボット会議に登場し、家庭に入ることができる初のチェスロボットを発表した Aug 21, 2024 pm 07:33 PM

8月21日、2024年世界ロボット会議が北京で盛大に開催された。 SenseTimeのホームロボットブランド「Yuanluobot SenseRobot」は、全製品ファミリーを発表し、最近、世界初の家庭用チェスロボットとなるYuanluobot AIチェスプレイロボット - Chess Professional Edition(以下、「Yuanluobot SenseRobot」という)をリリースした。家。 Yuanluobo の 3 番目のチェス対局ロボット製品である新しい Guxiang ロボットは、AI およびエンジニアリング機械において多くの特別な技術アップグレードと革新を経て、初めて 3 次元のチェスの駒を拾う機能を実現しました。家庭用ロボットの機械的な爪を通して、チェスの対局、全員でのチェスの対局、記譜のレビューなどの人間と機械の機能を実行します。

クロードも怠け者になってしまった!ネチズン: 自分に休日を与える方法を学びましょう クロードも怠け者になってしまった!ネチズン: 自分に休日を与える方法を学びましょう Sep 02, 2024 pm 01:56 PM

もうすぐ学校が始まり、新学期を迎える生徒だけでなく、大型AIモデルも気を付けなければなりません。少し前、レディットはクロードが怠け者になったと不満を漏らすネチズンでいっぱいだった。 「レベルが大幅に低下し、頻繁に停止し、出力も非常に短くなりました。リリースの最初の週は、4 ページの文書全体を一度に翻訳できましたが、今では 0.5 ページの出力さえできません」 !」 https://www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/ というタイトルの投稿で、「クロードには完全に失望しました」という内容でいっぱいだった。

世界ロボット会議で「未来の高齢者介護の希望」を担う家庭用ロボットを囲みました 世界ロボット会議で「未来の高齢者介護の希望」を担う家庭用ロボットを囲みました Aug 22, 2024 pm 10:35 PM

北京で開催中の世界ロボット会議では、人型ロボットの展示が絶対的な注目となっているスターダストインテリジェントのブースでは、AIロボットアシスタントS1がダルシマー、武道、書道の3大パフォーマンスを披露した。文武両道を備えた 1 つの展示エリアには、多くの専門的な聴衆とメディアが集まりました。弾性ストリングのエレガントな演奏により、S1 は、スピード、強さ、正確さを備えた繊細な操作と絶対的なコントロールを発揮します。 CCTVニュースは、「書道」の背後にある模倣学習とインテリジェント制御に関する特別レポートを実施し、同社の創設者ライ・ジエ氏は、滑らかな動きの背後にあるハードウェア側が最高の力制御と最も人間らしい身体指標(速度、負荷)を追求していると説明した。など)、AI側では人の実際の動きのデータが収集され、強い状況に遭遇したときにロボットがより強くなり、急速に進化することを学習することができます。そしてアジャイル

ACL 2024 賞の発表: HuaTech による Oracle 解読に関する最優秀論文の 1 つ、GloVe Time Test Award ACL 2024 賞の発表: HuaTech による Oracle 解読に関する最優秀論文の 1 つ、GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

貢献者はこの ACL カンファレンスから多くのことを学びました。 6日間のACL2024がタイのバンコクで開催されています。 ACL は、計算言語学と自然言語処理の分野におけるトップの国際会議で、国際計算言語学協会が主催し、毎年開催されます。 ACL は NLP 分野における学術的影響力において常に第一位にランクされており、CCF-A 推奨会議でもあります。今年の ACL カンファレンスは 62 回目であり、NLP 分野における 400 以上の最先端の作品が寄せられました。昨日の午後、カンファレンスは最優秀論文およびその他の賞を発表しました。今回の優秀論文賞は7件(未発表2件)、最優秀テーマ論文賞1件、優秀論文賞35件です。このカンファレンスでは、3 つの Resource Paper Award (ResourceAward) と Social Impact Award (

宏蒙スマートトラベルS9とフルシナリオ新製品発売カンファレンス、多数の大ヒット新製品が一緒にリリースされました 宏蒙スマートトラベルS9とフルシナリオ新製品発売カンファレンス、多数の大ヒット新製品が一緒にリリースされました Aug 08, 2024 am 07:02 AM

今日の午後、Hongmeng Zhixingは新しいブランドと新車を正式に歓迎しました。 8月6日、ファーウェイはHongmeng Smart Xingxing S9およびファーウェイのフルシナリオ新製品発表カンファレンスを開催し、パノラマスマートフラッグシップセダンXiangjie S9、新しいM7ProおよびHuawei novaFlip、MatePad Pro 12.2インチ、新しいMatePad Air、Huawei Bisheng Withを発表しました。レーザー プリンタ X1 シリーズ、FreeBuds6i、WATCHFIT3、スマート スクリーン S5Pro など、スマート トラベル、スマート オフィスからスマート ウェアに至るまで、多くの新しいオールシナリオ スマート製品を開発し、ファーウェイは消費者にスマートな体験を提供するフル シナリオのスマート エコシステムを構築し続けています。すべてのインターネット。宏孟志興氏:スマートカー業界のアップグレードを促進するための徹底的な権限付与 ファーウェイは中国の自動車業界パートナーと提携して、

Li Feifei 氏のチームは、ロボットに空間知能を与え、GPT-4o を統合する ReKep を提案しました Li Feifei 氏のチームは、ロボットに空間知能を与え、GPT-4o を統合する ReKep を提案しました Sep 03, 2024 pm 05:18 PM

ビジョンとロボット学習の緊密な統合。最近話題の1X人型ロボットNEOと合わせて、2つのロボットハンドがスムーズに連携して服をたたむ、お茶を入れる、靴を詰めるといった動作をしていると、いよいよロボットの時代が到来するのではないかと感じられるかもしれません。実際、これらの滑らかな動きは、高度なロボット技術 + 精緻なフレーム設計 + マルチモーダル大型モデルの成果です。有用なロボットは多くの場合、環境との複雑かつ絶妙な相互作用を必要とし、環境は空間領域および時間領域の制約として表現できることがわかっています。たとえば、ロボットにお茶を注いでもらいたい場合、ロボットはまずティーポットのハンドルを掴んで、お茶をこぼさないように垂直に保ち、次にポットの口がカップの口と揃うまでスムーズに動かす必要があります。 、そしてティーポットを一定の角度に傾けます。これ

分散型人工知能カンファレンス DAI 2024 論文募集: エージェント デイ、強化学習の父であるリチャード サットン氏が出席します。 Yan Shuicheng、Sergey Levine、DeepMind の科学者が基調講演を行います 分散型人工知能カンファレンス DAI 2024 論文募集: エージェント デイ、強化学習の父であるリチャード サットン氏が出席します。 Yan Shuicheng、Sergey Levine、DeepMind の科学者が基調講演を行います Aug 22, 2024 pm 08:02 PM

会議の紹介 科学技術の急速な発展に伴い、人工知能は社会の進歩を促進する重要な力となっています。この時代に、分散型人工知能 (DAI) の革新と応用を目撃し、参加できることは幸運です。分散型人工知能は人工知能分野の重要な分野であり、近年ますます注目を集めています。大規模言語モデル (LLM) に基づくエージェントは、大規模モデルの強力な言語理解機能と生成機能を組み合わせることで、自然言語対話、知識推論、タスク計画などにおいて大きな可能性を示しました。 AIAgent は大きな言語モデルを引き継ぎ、現在の AI 界隈で話題になっています。アウ

See all articles