


「知識ベースのイメージ問答」を微調整しても無駄なのでしょうか? Googleが検索システムAVISをリリース:教師ありPALIを超えるサンプルはほとんどなく、精度は3倍に
大規模言語モデル (LLM) のサポートにより、画像説明、視覚的質問応答 (VQA)、オープン語彙オブジェクト検出など、視覚と組み合わせたマルチモーダル タスクが大幅に進歩しました。
ただし、現在の視覚言語モデル (VLM) は基本的に画像内の視覚情報のみを使用してタスクを完了するため、インフォームシークと OK-VQA による外部知識の支援が必要です。データセットのパフォーマンスが低下することがよくあります。
最近 Google は、外部ツールの使用を動的に定式化する大規模言語モデル (LLM) を使用する、新しい自律的な視覚情報検索手法 AVIS をリリースしました。 API の呼び出し、出力結果の分析、意思決定、その他の操作を含む戦略は、画像の質問と回答のための重要な知識を提供します。
次のリンクをクリックして論文をお読みください: https://arxiv.org/pdf/2306.08129.pdf
AVIS には主に 3 種類のツールが統合されています:
1. 画像から視覚情報を抽出するツール
2. 検索オープンワールドの知識と事実のための Web 検索ツール
#3. 視覚的に類似した画像を取得するために使用できる画像検索ツール
次に、大規模な言語モデルに基づくプランナーを使用してツールを選択し、各ステップで結果をクエリして、質問に対する回答を動的に生成します。
人間の意思決定のシミュレーションInfoseek および OK-VQA データセットの視覚的な問題の多くは人間にとってさえ非常に難しく、通常はさまざまな外部ツールの支援が必要です。そこで研究者らは、人間が複雑な視覚的問題をどのように解決するかを観察するために、まずユーザー調査を実施することにした。
まず、PALI、PALM、ネットワーク検索などの利用可能なツールのセットをユーザーに提供します。次に、入力画像、質問、検出されたオブジェクトの切り取り、画像検索結果からリンクされたナレッジ グラフ エンティティ、類似した画像のタイトル、関連製品のタイトル、および画像の説明を表示します。ユーザーのアクションと出力を記録し、システムが応答するように導く 2 つの方法を使用します:
1. ユーザーが行った一連の意思決定を分析して変換を構築する さまざまな状態を含むグラフ、それぞれに使用可能なアクションのセットが異なります。
#書き直された内容: AVIS 変換図 再設計された AVIS 変換図は、AVIS 変換プロセスを説明するために使用されるグラフィック表現です。この図は、AVIS のさまざまな段階とステップを明確に図示しており、ユーザーにわかりやすい方法で提示されています。この変換図を通じて、ユーザーは AVIS の動作原理と操作プロセスをよりよく理解できます。このチャートのデザインは簡潔かつ明確であり、ユーザーは AVIS 変換プロセスをすぐに把握できます。初心者も経験豊富なユーザーも、この AVIS 変換図を通じて変換プロセスを簡単に理解し、適用することができます
#システムのパフォーマンスと有効性を向上させるために、人間の意思決定の例を使用して、プランナーと推論者が関連するコンテキスト インスタンスと対話できるようにすることができます
全体のフレームワーク
AVIS アプローチは、視覚情報のクエリに応答するように設計された動的な意思決定戦略を採用しています。
システムは 3 つの主要なコンポーネントで構成されています。
書き直す必要がある内容は次のとおりです。 1. プランナー。処理する必要がある適切な API 呼び出しやクエリなど、後続の操作を決定するために使用されます。
2 。作業メモリ: API の実行によって得られた結果情報を保持する作業メモリ。
3. 推論器は、API 呼び出しの出力を処理するために使用され、取得した情報が最終応答を生成するのに十分であるかどうか、または追加のデータ取得が必要かどうかを判断できます
どのツールを使用するか、どのクエリをシステムに送信するかを決定する必要があるたびに、プランナーは一連のアクションを実行します。現在の状態に応じて、プランナーは潜在的なフォローも提供します。アップアクション
潜在的なアクションスペースが多すぎるために検索スペースが大きすぎるという問題を解決するには、プランナーは遷移グラフを参照して無関係なアクションを削除する必要があります。以前に実行され、作業記憶に保存されているアクション。
プランナーは、プロンプトを作成した後、ユーザー調査データからコンテキスト例のセットを組み立て、以前のツール操作の記録と組み合わせます。 LLM は、言語モデルへの入力として、次にアクティブ化するツールとディスパッチするクエリを決定する構造化された回答を返します。
#設計プロセス全体は、プランナーへの複数回の呼び出しによって推進され、動的な意思決定を推進し、徐々に答えを生成します。
#研究者は推論器を使用してツール実行の出力を分析し、有用な情報を抽出し、ツールの出力のカテゴリ (有益、非有益、または最終的な答え) を決定します
「回答を提供する」という結果を返す場合は、それを最終結果として直接出力してタスクを終了します; 結果が情報でなければ、プランナーに戻り、現在の状態に基づいて別のアクションを選択します; リーズナーが次のことを判断した場合ツールの出力が有用な場合、状態が変更され、制御がプランナーに戻されて、新しい状態で新しい決定が行われます。
AVIS は、視覚情報の検索クエリに応答するために動的な意思決定戦略を採用しています
実験結果書き直す必要があるのは次のとおりです: ツール コレクション
#PALI 17B モデルを使用すると、画像記述モデルは入力画像の記述を生成し、検出されたオブジェクトのトリミングされた画像#PALI 17B VQA モデルを使用したビジュアル質問応答モデルは、画像と質問を入力として受け取り、テキストベースの回答を出力として受け取ります。
特定のカテゴリの Google Lens API によって提供される、Open Images データセットのスーパーセットでトレーニングされたオブジェクト検出器を使用したオブジェクト検出。高い信頼しきい値を使用し、ランキング内のランキングのみを保持します。入力画像 前方検出枠。
Google 画像検索を使用して、検出されたボックスに関連する画像の切り抜き情報を取得します。
意思決定を行う際、プランナーは各部分の利用状況を決定します。各情報には数百のトークンが含まれている可能性があり、複雑な処理と推論が必要となるため、情報の分割は別個の操作とみなされます。
場合によっては、画像には通りの名前やブランド名などのテキスト コンテンツが含まれる場合があります。 Google Lens API の光学式文字認識 (OCR) 機能を使用して、このテキストを抽出できます。
Web 検索に Google Search API を使用すると、テキスト クエリを入力して取得できます。関連するドキュメントのリンクとスニペットの出力結果のほか、直接の回答と入力クエリに関連する最大 5 つの質問を含むナレッジ グラフ パネルも提供します
実験結果
研究者らは、Infoseek および OK-VQA データセットで AVIS フレームワークを評価しました。結果から、OFA モデルや PALI モデルなどの非常に堅牢な視覚言語モデルでも取得できないことがわかります。 Infoseek データセットで微調整した後の高精度。
#AVIS メソッドは、微調整を行わずに、セット上の OK-VQA データで 50.7% の精度を達成しました。 、AVIS システムは、数ショット設定で 60.2% の精度を達成し、これは微調整された PALI モデルに次いで 2 番目でした。
OK-VQA のほとんどの質問と回答の例は、詳細な知識ではなく常識的な知識に依存しているため、おそらくパフォーマンスの違いが原因です。これに。 PALI は、外部知識の助けに依存することなく、モデル パラメーターにエンコードされた共通の知識を活用できます。
AVIS の重要な機能は、動的に固定シーケンスを実行するのではなく、意思決定を行う 上記の例から、さまざまな段階でさまざまなツールを使用する AVIS の柔軟性がわかります。
この記事の推論設計により、AVIS が無関係な情報を識別し、前の状態に戻って検索を繰り返すことができることは注目に値します。
たとえば、菌類の分類に関する 2 番目の例では、AVIS は当初、葉オブジェクトを選択するという誤った決定を下しましたが、推論機能がそれが問題と無関係であると判断した後、AVIS に再選択を促しました。 - 計画を立て、その後、偽七面鳥尾菌に関連するオブジェクトを選択することに成功し、結果として正しい答えが得られました。Stereum
結論研究者らは、A を考え出しました。新しいアプローチである AVIS は、アセンブリ センターとして LLM を使用し、さまざまな外部ツールを使用して知識集約的なビジョンの質問に答えます。
このアプローチでは、研究者らは、ユーザー調査から収集した人間の意思決定データをアンカーとして使用し、構造化フレームワークを採用し、LLM ベースのプランナーを使用して動的に意思決定ツールを選択することを選択しました。視覚的な質問に答えるために必要な情報がすべて収集されるまで、クエリ形成ツールを使用します。
以上が「知識ベースのイメージ問答」を微調整しても無駄なのでしょうか? Googleが検索システムAVISをリリース:教師ありPALIを超えるサンプルはほとんどなく、精度は3倍にの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









0.この記事は何をするのですか?私たちは、多用途かつ高速な最先端の生成単眼深度推定モデルである DepthFM を提案します。従来の深度推定タスクに加えて、DepthFM は深度修復などの下流タスクでも最先端の機能を実証します。 DepthFM は効率的で、いくつかの推論ステップ内で深度マップを合成できます。この作品について一緒に読みましょう〜 1. 論文情報タイトル: DepthFM: FastMonocularDepthEstimationwithFlowMatching 著者: MingGui、JohannesS.Fischer、UlrichPrestel、PingchuanMa、Dmytr

従来のコンピューティングを超える能力を備えているだけでなく、より低コストでより効率的なパフォーマンスを実現する人工知能モデルを想像してみてください。これは SF ではありません。世界で最も強力なオープンソース MoE モデルである DeepSeek-V2[1] が登場しました。 DeepSeek-V2 は、経済的なトレーニングと効率的な推論の特徴を備えた強力な専門家混合 (MoE) 言語モデルです。これは 236B のパラメータで構成されており、そのうち 21B は各マーカーをアクティブにするために使用されます。 DeepSeek67B と比較して、DeepSeek-V2 はパフォーマンスが優れていると同時に、トレーニング コストを 42.5% 節約し、KV キャッシュを 93.3% 削減し、最大生成スループットを 5.76 倍に高めます。 DeepSeek は一般的な人工知能を研究する会社です

AI は確かに数学を変えつつあります。最近、この問題に細心の注意を払っている陶哲軒氏が『米国数学協会会報』(米国数学協会会報)の最新号を送ってくれた。 「機械は数学を変えるのか?」というテーマを中心に、多くの数学者が意見を述べ、そのプロセス全体は火花に満ち、ハードコアで刺激的でした。著者には、フィールズ賞受賞者のアクシャイ・ベンカテシュ氏、中国の数学者鄭楽軍氏、ニューヨーク大学のコンピューター科学者アーネスト・デイビス氏、その他業界で著名な学者を含む強力な顔ぶれが揃っている。 AI の世界は劇的に変化しています。これらの記事の多くは 1 年前に投稿されたものです。

今月初め、MIT やその他の機関の研究者らは、MLP に代わる非常に有望な代替案である KAN を提案しました。 KAN は、精度と解釈可能性の点で MLP よりも優れています。また、非常に少数のパラメーターを使用して、多数のパラメーターを使用して実行する MLP よりも優れたパフォーマンスを発揮できます。たとえば、著者らは、KAN を使用して、より小規模なネットワークと高度な自動化で DeepMind の結果を再現したと述べています。具体的には、DeepMind の MLP には約 300,000 個のパラメーターがありますが、KAN には約 200 個のパラメーターしかありません。 KAN は、MLP が普遍近似定理に基づいているのに対し、KAN はコルモゴロフ-アーノルド表現定理に基づいているのと同様に、強力な数学的基礎を持っています。以下の図に示すように、KAN は

Boston Dynamics Atlas は正式に電動ロボットの時代に突入します!昨日、油圧式アトラスが歴史の舞台から「涙ながらに」撤退したばかりですが、今日、ボストン・ダイナミクスは電動式アトラスが稼働することを発表しました。ボストン・ダイナミクス社は商用人型ロボットの分野でテスラ社と競争する決意を持っているようだ。新しいビデオが公開されてから、わずか 10 時間ですでに 100 万人以上が視聴しました。古い人が去り、新しい役割が現れるのは歴史的な必然です。今年が人型ロボットの爆発的な年であることは間違いありません。ネットユーザーは「ロボットの進歩により、今年の開会式は人間のように見え、人間よりもはるかに自由度が高い。しかし、これは本当にホラー映画ではないのか?」とコメントした。ビデオの冒頭では、アトラスは仰向けに見えるように地面に静かに横たわっています。次に続くのは驚くべきことです

何?ズートピアは国産AIによって実現するのか?ビデオとともに公開されたのは、「Keling」と呼ばれる新しい大規模な国産ビデオ生成モデルです。 Sora も同様の技術的ルートを使用し、自社開発の技術革新を多数組み合わせて、大きく合理的な動きをするだけでなく、物理世界の特性をシミュレートし、強力な概念的結合能力と想像力を備えたビデオを制作します。データによると、Keling は、最大 1080p の解像度で 30fps で最大 2 分の超長時間ビデオの生成をサポートし、複数のアスペクト比をサポートします。もう 1 つの重要な点は、Keling は研究所が公開したデモやビデオ結果のデモンストレーションではなく、ショートビデオ分野のリーダーである Kuaishou が立ち上げた製品レベルのアプリケーションであるということです。さらに、主な焦点は実用的であり、白紙小切手を書かず、リリースされたらすぐにオンラインに移行することです。Ke Ling の大型モデルは Kuaiying でリリースされました。

世界は狂ったように大きなモデルを構築していますが、インターネット上のデータだけではまったく不十分です。このトレーニング モデルは「ハンガー ゲーム」のようであり、世界中の AI 研究者は、データを貪欲に食べる人たちにどのように餌を与えるかを心配しています。この問題は、マルチモーダル タスクで特に顕著です。何もできなかった当時、中国人民大学学部のスタートアップチームは、独自の新しいモデルを使用して、中国で初めて「モデル生成データフィード自体」を実現しました。さらに、これは理解側と生成側の 2 つの側面からのアプローチであり、両方の側で高品質のマルチモーダルな新しいデータを生成し、モデル自体にデータのフィードバックを提供できます。モデルとは何ですか? Awaker 1.0 は、中関村フォーラムに登場したばかりの大型マルチモーダル モデルです。チームは誰ですか?ソフォンエンジン。人民大学ヒルハウス人工知能大学院の博士課程学生、ガオ・イージャオ氏によって設立されました。

最近、軍事界は、米軍戦闘機が AI を使用して完全自動空戦を完了できるようになったというニュースに圧倒されました。そう、つい最近、米軍のAI戦闘機が初めて公開され、その謎が明らかになりました。この戦闘機の正式名称は可変安定性飛行シミュレーター試験機(VISTA)で、アメリカ空軍長官が自ら飛行させ、一対一の空戦をシミュレートした。 5 月 2 日、フランク ケンダル米国空軍長官は X-62AVISTA でエドワーズ空軍基地を離陸しました。1 時間の飛行中、すべての飛行動作が AI によって自律的に完了されたことに注目してください。ケンダル氏は「過去数十年にわたり、私たちは自律型空対空戦闘の無限の可能性について考えてきたが、それは常に手の届かないものだと思われてきた」と語った。しかし今では、
