ホームページ テクノロジー周辺機器 AI 浙江大学 Li Xi のチーム: 表現の理解を参照するための新しい方法、ScanFormer は粗いものから細かいものまで繰り返し、視覚的な冗長性を排除します

浙江大学 Li Xi のチーム: 表現の理解を参照するための新しい方法、ScanFormer は粗いものから細かいものまで繰り返し、視覚的な冗長性を排除します

Aug 20, 2024 pm 04:35 PM
プロジェクト

浙江大学 Li Xi のチーム: 表現の理解を参照するための新しい方法、ScanFormer は粗いものから細かいものまで繰り返し、視覚的な冗長性を排除します
AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。提出電子メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com

この論文の著者は全員、浙江大学のLi Xi教授のチームのメンバーであり、論文の最初の著者は博士課程の学生です。 Wei 氏、責任著者は Li 教授 (IET フェロー、国家優秀若手研究者) です。近年、Li Xi教授のチームは、180件を超えるCV/AIGC関連の研究成果を権威ある国際ジャーナル(TPAMI、IJCVなど)や主要な国際学術会議(ICCV、CVPR、ECCVなど)で発表しています。国内外の著名な大学や科学研究機関と幅広く協力しています。

基本的な視覚言語タスクとして、参照表現理解 (REC) は、自然言語記述に基づいて画像内の参照先の位置を特定します。 REC モデルは通常、ビジュアル エンコーダー、テキスト エンコーダー、クロスモーダル インタラクションの 3 つの部分で構成され、それぞれビジュアル特徴、テキスト特徴、クロスモーダル特徴のインタラクションと強化を抽出するために使用されます。

現在の研究のほとんどは、タスクの精度を向上させるための効率的なクロスモーダルインタラクションモジュールの設計に焦点を当てており、ビジュアルエンコーダーの探求が不足しています。一般的なアプローチは、ResNet、DarkNet、Swin Transformer、ViT などの分類および検出タスクに関して事前トレーニングされた特徴抽出器を使用することです。これらのモデルは、画像のすべての空間位置を走査して、スライディング ウィンドウまたは分割パッチ方式で特徴を抽出します。その計算の複雑さは画像の解像度とともに急速に増加しますが、これは Transformer ベースのモデルでより明らかです。

画像の空間的冗長性の特性により、画像内には情報量の少ない背景領域や参照表現とは無関係な領域が多数存在するため、これらの領域を同様に抽出すると量が増加します。計算の効果はありますが、効果的な特徴抽出には効果がありません。より効率的な方法は、画像領域のテキストの関連性とコンテンツの豊富さを事前に予測し、テキスト関連の前景領域から特徴を完全に抽出し、背景領域から特徴を大まかに抽出することです。領域予測の場合、より直観的な方法は、画像ピラミッドを使用して、ピラミッドの上部の粗粒画像内の背景領域を事前に識別し、その後、高解像度の粒度の細かい前景領域を徐々に追加することです。

上記の分析に基づいて、粗いものから細かいものへの反復知覚フレームワーク ScanFormer を提案しました。これは、画像ピラミッド内のレイヤーごとにスキャンし、低解像度の粗いスケールの画像から開始して、徐々にフィルターで除去します。無関係な参照式/背景領域を削除して計算の無駄を減らし、モデルが前景/タスク関連領域にさらに集中できるようにします。

浙江大学 Li Xi のチーム: 表現の理解を参照するための新しい方法、ScanFormer は粗いものから細かいものまで繰り返し、視覚的な冗長性を排除します

  • 論文タイトル: ScanFormer: Referring Expression Comprehension by Iteratively Scanning
  • 論文リンク: https://arxiv.org/pdf/2406.18048

メソッドの紹介

1つ、粗いものから細かいものまでの反復知覚フレームワーク

構造を簡素化するために、テキストと視覚のモダリティを統合する ViLT [1] モデルを採用し、それを深さの次元に沿って 2 つの部分に分割します: Encoder1 と Encoder2 のさまざまなタスク。

まず、テキスト特徴を抽出して KV キャッシュに保存します。次に、画像ピラミッドを構築し、各反復で現在のスケールで選択されたパッチを入力します。それぞれの予測 各パッチに対応する次のスケールのきめの細かいパッチの選択。特に、モデルが粗い画像全体の情報を取得できるようにするために、トップレベルの画像のすべてのパッチが選択されます。 Encoder2 はさらに特徴を抽出し、現在のスケールの [cls] トークンに基づいてそのスケールでの境界ボックスを予測します。

同時に、Encoder1 と Encoder2 の中間機能は、その後のスケールの利用を容易にするために KV キャッシュに保存されます。スケールが大きくなるにつれて、きめ細かい特徴が導入され、位置予測がより正確になる一方で、多くの計算量を節約するために無関係なパッチのほとんどが破棄されます。

さらに、各スケール内のパッチには双方向の注意があり、前のスケールのすべてのパッチとテキストの機能に注意が払われます。スケール全体にわたるこの因果関係への注意により、計算要件をさらに削減できます。

浙江大学 Li Xi のチーム: 表現の理解を参照するための新しい方法、ScanFormer は粗いものから細かいものまで繰り返し、視覚的な冗長性を排除します

2. 動的パッチ選択

各パッチの選択は、前のスケールによって生成された選択係数によって決定されます。 1 つは、アプリケーションの MHSA の各レイヤーに対するものです。ただし、すべてのヘッドの中で、N 層 H ヘッド エンコーダの場合、更新する有効な勾配情報を取得するのが難しいため、学習された 2 番目の選択係数がエンコーダの入力に直接使用されるのは理想的ではありません。つまり、パッチの埋め込みはこの 1 つの位置でのみ使用されるため、学習が容易であり、この解決策が最終的にこの記事で採用されました。

さらに、入力パッチのエンベディングが 0 に設定されている場合でも、MHSA と FFN の存在により、後続のレイヤーのパッチの特性は依然として非 0 になり、残りのパッチの特徴。幸いなことに、トークン シーケンスに同一のトークンが多数ある場合、MHSA の計算を簡素化し、実際の推論の高速化を実現できます。さらに、モデルの柔軟性を高めるために、この記事ではパッチの埋め込みを直接 0 に設定せず、学習可能な定数トークンに置き換えます。

したがって、パッチ選択問題はパッチ置換問題に変換されます。パッチ選択のプロセスは、定数トークンの置換とトークンのマージの 2 つのステップに分解できます。選択されていないパッチは、同じ定数トークンに置き換えられます。これらの選択されていないトークンは同じであるため、スケーリングされたドット積アテンションの計算方法に従って、これらのトークンを 1 つのトークンに結合し、合計数を乗算することができます。これは、次元に加算することと同等であるため、ドット積アテンション方法は次のようになります。変更はなく、一般的な加速方法は引き続き使用できます。

浙江大学 Li Xi のチーム: 表現の理解を参照するための新しい方法、ScanFormer は粗いものから細かいものまで繰り返し、視覚的な冗長性を排除します

実験結果

このメソッドは、RefCOCO、RefCOCO+、RefCOCOg、ReferItGame の 4 つのデータセットで最先端と同様のパフォーマンスを達成します。大規模なデータセットで事前トレーニングし、特定のデータセットで微調整することにより、モデルのパフォーマンスがさらに大幅に向上し、MDETR [2] や OFA [3] などの事前トレーニングされたモデルと同様の結果を達成できます。

浙江大学 Li Xi のチーム: 表現の理解を参照するための新しい方法、ScanFormer は粗いものから細かいものまで繰り返し、視覚的な冗長性を排除します

浙江大学 Li Xi のチーム: 表現の理解を参照するための新しい方法、ScanFormer は粗いものから細かいものまで繰り返し、視覚的な冗長性を排除します

推論速度の点では、提案手法は高いタスク精度を確保しながらリアルタイム推論速度を実現します。

浙江大学 Li Xi のチーム: 表現の理解を参照するための新しい方法、ScanFormer は粗いものから細かいものまで繰り返し、視覚的な冗長性を排除します

Darüber hinaus wurden im experimentellen Teil auch Statistiken zur Patchauswahl des Modells und zur Verteilung der Positionierungsgenauigkeit auf jeder Skala (Skala1 und Skala2) erstellt.

Wie im Bild links gezeigt, werden mit zunehmendem Maßstab feinkörnige Bildmerkmale hinzugefügt und die Modellgenauigkeit verbessert sich allmählich. Daher können Sie versuchen, einen Mechanismus zum vorzeitigen Beenden hinzuzufügen, um rechtzeitig zu beenden, wenn die Positionierungsgenauigkeit den Anforderungen entspricht, wodurch weitere Berechnungen für hochauflösende Bilder vermieden werden und der Effekt einer adaptiven Auswahl einer geeigneten Auflösung basierend auf Proben erzielt wird. In diesem Artikel wurden auch einige vorläufige Versuche unternommen, darunter das Hinzufügen von Vorhersagezweigen wie IoU, GIoU und Unsicherheit sowie die Rückgabe von Frühausstiegsindikatoren. Es wurde jedoch festgestellt, dass der Effekt nicht ideal war, wie es sein muss, geeignete und genaue Frühausstiegsindikatoren zu entwerfen weiter erforscht.

Das Bild rechts zeigt die Patch-Auswahlsituation in verschiedenen Maßstäben. In allen Maßstäben sind die ausgewählten Patches relativ klein und die meisten Patches können eliminiert werden, sodass Rechenressourcen effektiv eingespart werden können. Für jedes Beispiel (Bild + Referenzausdruck) ist die Anzahl der tatsächlich ausgewählten Patches relativ gering, vielleicht 65 % der Gesamtzahl.

浙江大学 Li Xi のチーム: 表現の理解を参照するための新しい方法、ScanFormer は粗いものから細かいものまで繰り返し、視覚的な冗長性を排除します

Abschließend zeigt der experimentelle Teil einige Visualisierungsergebnisse. Mit zunehmendem Maßstab (Rot → Grün → Blau) verbessert sich die Positionierungsgenauigkeit des Modells allmählich. Darüber hinaus ist anhand des aus dem ausgewählten Patch rekonstruierten Bild ersichtlich, dass das Modell nur auf grobskalige Informationen für den Hintergrundbereich achtet, während das Modell für den relevanten Vordergrundbereich auf feinkörnige Details achten kann Information.

浙江大学 Li Xi のチーム: 表現の理解を参照するための新しい方法、ScanFormer は粗いものから細かいものまで繰り返し、視覚的な冗長性を排除します

Verwandte Literatur:
[1].Kim W, Son B, Kim I. Vilt: Vision-and-Language Transformer without Convolution or Region Supervision [C]//Internationale Konferenz über maschinelles Lernen. PMLR, 2021: 5583-5594.
[2].Kamath A, Singh M, LeCun Y, et al. Mdetr-modulierte Erkennung für ein durchgängiges multimodales Verständnis [C]//Proceedings of the Internationale IEEE/CVF-Konferenz zum Thema Computer Vision.
[3].Wang P, Yang A, Men R, et al -Sequence Learning Framework [C]//Internationale Konferenz zum maschinellen Lernen, 2022: 23318-23340.

以上が浙江大学 Li Xi のチーム: 表現の理解を参照するための新しい方法、ScanFormer は粗いものから細かいものまで繰り返し、視覚的な冗長性を排除しますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

ControlNet の作者がまたヒット作を出しました!写真から絵画を生成し、2 日間で 1.4,000 個のスターを獲得する全プロセス ControlNet の作者がまたヒット作を出しました!写真から絵画を生成し、2 日間で 1.4,000 個のスターを獲得する全プロセス Jul 17, 2024 am 01:56 AM

これも Tusheng のビデオですが、PaintsUndo は別の道を歩んでいます。 ControlNet 作者 LvminZhang が再び生き始めました!今回は絵画の分野を目指します。新しいプロジェクト PaintsUndo は、開始されて間もなく 1.4kstar を獲得しました (まだ異常なほど上昇しています)。プロジェクトアドレス: https://github.com/lllyasviel/Paints-UNDO このプロジェクトを通じて、ユーザーが静止画像を入力すると、PaintsUndo が線画から完成品までのペイントプロセス全体のビデオを自動的に生成するのに役立ちます。 。描画プロセス中の線の変化は驚くべきもので、最終的なビデオ結果は元の画像と非常によく似ています。完成した描画を見てみましょう。

オープンソース AI ソフトウェア エンジニアのリストのトップに立つ UIUC のエージェントレス ソリューションは、SWE ベンチの実際のプログラミングの問題を簡単に解決します オープンソース AI ソフトウェア エンジニアのリストのトップに立つ UIUC のエージェントレス ソリューションは、SWE ベンチの実際のプログラミングの問題を簡単に解決します Jul 17, 2024 pm 10:02 PM

AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。提出電子メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com この論文の著者は全員、イリノイ大学アーバナ シャンペーン校 (UIUC) の Zhang Lingming 教師のチームのメンバーです。博士課程4年、研究者

RLHF から DPO、TDPO に至るまで、大規模なモデル アライメント アルゴリズムはすでに「トークンレベル」になっています RLHF から DPO、TDPO に至るまで、大規模なモデル アライメント アルゴリズムはすでに「トークンレベル」になっています Jun 24, 2024 pm 03:04 PM

AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。提出メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 人工知能の開発プロセスにおいて、大規模言語モデル (LLM) の制御とガイダンスは常に中心的な課題の 1 つであり、これらのモデルが両方とも確実に機能することを目指しています。強力かつ安全に人類社会に貢献します。初期の取り組みは人間のフィードバックによる強化学習手法に焦点を当てていました (RL

arXiv 論文は「弾幕」として投稿可能、スタンフォード alphaXiv ディスカッション プラットフォームはオンライン、LeCun は気に入っています arXiv 論文は「弾幕」として投稿可能、スタンフォード alphaXiv ディスカッション プラットフォームはオンライン、LeCun は気に入っています Aug 01, 2024 pm 05:18 PM

乾杯!紙面でのディスカッションが言葉だけになると、どんな感じになるでしょうか?最近、スタンフォード大学の学生が、arXiv 論文のオープン ディスカッション フォーラムである alphaXiv を作成しました。このフォーラムでは、arXiv 論文に直接質問やコメントを投稿できます。 Web サイトのリンク: https://alphaxiv.org/ 実際、URL の arXiv を alphaXiv に変更するだけで、alphaXiv フォーラムの対応する論文を直接開くことができます。この Web サイトにアクセスする必要はありません。その中の段落を正確に見つけることができます。論文、文: 右側のディスカッション エリアでは、ユーザーは論文のアイデアや詳細について著者に尋ねる質問を投稿できます。たとえば、次のような論文の内容についてコメントすることもできます。

OpenAI Super Alignment チームの遺作: 2 つの大きなモデルがゲームをプレイし、出力がより理解しやすくなる OpenAI Super Alignment チームの遺作: 2 つの大きなモデルがゲームをプレイし、出力がより理解しやすくなる Jul 19, 2024 am 01:29 AM

AIモデルによって与えられた答えがまったく理解できない場合、あなたはそれをあえて使用しますか?機械学習システムがより重要な分野で使用されるにつれて、なぜその出力を信頼できるのか、またどのような場合に信頼してはいけないのかを実証することがますます重要になっています。複雑なシステムの出力に対する信頼を得る方法の 1 つは、人間または他の信頼できるシステムが読み取れる、つまり、考えられるエラーが発生する可能性がある点まで完全に理解できる、その出力の解釈を生成することをシステムに要求することです。見つかった。たとえば、司法制度に対する信頼を築くために、裁判所に対し、決定を説明し裏付ける明確で読みやすい書面による意見を提供することを求めています。大規模な言語モデルの場合も、同様のアプローチを採用できます。ただし、このアプローチを採用する場合は、言語モデルが

リーマン予想の大きな進歩!陶哲軒氏はMITとオックスフォードの新しい論文を強く推薦し、37歳のフィールズ賞受賞者も参加した リーマン予想の大きな進歩!陶哲軒氏はMITとオックスフォードの新しい論文を強く推薦し、37歳のフィールズ賞受賞者も参加した Aug 05, 2024 pm 03:32 PM

最近、2000年代の7大問題の一つとして知られるリーマン予想が新たなブレークスルーを達成した。リーマン予想は、数学における非常に重要な未解決の問題であり、素数の分布の正確な性質に関連しています (素数とは、1 とそれ自身でのみ割り切れる数であり、整数論において基本的な役割を果たします)。今日の数学文献には、リーマン予想 (またはその一般化された形式) の確立に基づいた 1,000 を超える数学的命題があります。言い換えれば、リーマン予想とその一般化された形式が証明されれば、これらの 1,000 を超える命題が定理として確立され、数学の分野に重大な影響を与えることになります。これらの命題の一部も有効性を失います。 MIT数学教授ラリー・ガスとオックスフォード大学から新たな進歩がもたらされる

LLM は時系列予測にはあまり適していません。推論機能も使用しません。 LLM は時系列予測にはあまり適していません。推論機能も使用しません。 Jul 15, 2024 pm 03:59 PM

言語モデルは本当に時系列予測に使用できるのでしょうか?ベタリッジの見出しの法則 (疑問符で終わるニュース見出しは「いいえ」と答えることができます) によれば、答えは「いいえ」であるはずです。このような強力な LLM は時系列データを適切に処理できないという事実は真実のようです。時系列、つまり時系列とは、その名の通り、時間順に並べられた一連のデータ点のことを指します。時系列分析は、病気の蔓延予測、小売分析、ヘルスケア、金融などの多くの分野で重要です。時系列分析の分野では、多くの研究者が最近、大規模言語モデル (LLM) を使用して時系列の異常を分類、予測、検出する方法を研究しています。これらの論文では、テキスト内の逐次依存関係の処理に優れた言語モデルは時系列にも一般化できると想定しています。

最初の Mamba ベースの MLLM が登場しました!モデルの重み、トレーニング コードなどはすべてオープンソースです 最初の Mamba ベースの MLLM が登場しました!モデルの重み、トレーニング コードなどはすべてオープンソースです Jul 17, 2024 am 02:46 AM

AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。提出電子メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com。はじめに 近年、さまざまな分野でマルチモーダル大規模言語モデル (MLLM) の適用が目覚ましい成功を収めています。ただし、多くの下流タスクの基本モデルとして、現在の MLLM はよく知られた Transformer ネットワークで構成されています。

See all articles