


HKU Byte は、まず人間の知覚をシミュレートし、次に認知をシミュレートして、画像内のオブジェクトの位置を正確に特定する、マルチモーダル大規模モデルの新しいパラダイムを提案します
現在、マルチモーダル大規模モデル (MLLM)は、複数の視覚タスクに対して強力な認知的理解能力を実証しています。
しかし、ほとんどのマルチモーダル大規模モデルは一方向の画像理解に限定されているため、理解したコンテンツを画像にマッピングし直すことが困難になります。
たとえば、モデルは写真内にどのようなオブジェクトがあるかを簡単に判断できますが、写真内のオブジェクトを正確に識別することはできません。
測位機能の欠如は、画像編集、自動運転、ロボット制御などの下流分野におけるマルチモーダル大型モデルの応用を直接的に制限します。
この問題に対応して、香港大学の研究者とバイトダンス商業化チームは、新しいパラダイムGromaを提案しました。 -
は、地域画像エンコーディングを通じてマルチモーダル大規模モデルの知覚測位機能を向上させます。
位置決めを統合した後、Groma はテキスト コンテンツと画像領域を直接接続できるため、会話の対話性と方向性が大幅に向上します。この方法は、元の意味を変えることなく、表現を少し調整するだけです。
中心的なアイデア
マルチモーダル大規模モデルにオブジェクトの位置を特定する機能、つまりテキストコンテンツを画像領域に関連付けて「意味のある単語」を実現する機能をどのように与えるかが、現在主要な研究のホットスポットとなっています。 マルチモーダル大規模モデルの目標は、画像と対応するテキスト説明が与えられたときに、その説明に対応する画像内の領域を見つけられるようにすることです。このタスクは、画像とテキストの位置合わせ問題と呼ばれます。 この問題を解決するための一般的なアプローチは、オブジェクト座標を直接出力するように大規模な言語モデルを微調整することです。ただし、この方法には多くの制限があります:
1. テキスト自体で事前トレーニングされた大規模な言語モデルには空間を理解する機能がなく、少量のデータのみに依存してオブジェクトを正確に位置特定することは困難です。微調整。2.
位置決めタスクには入力画像の解像度に対する高い要件がありますが、解像度を上げると大規模なマルチモーダル モデルの計算量が大幅に増加します。3.
大規模な言語モデルの出力形式は、セグメンテーションなどの細かい位置決めタスクの処理には適していません。これらの考慮事項に基づいて、Groma は、位置決めをマルチモーダル大規模モデルのビジョン トークナイザーに転送することを提案しました。ビジョン トークナイザーは、潜在的なオブジェクトを検出して位置を特定し、認識のためにそれらを大規模言語モデルに渡します。
同時に、この設計は、位置決めを支援する外部の専門家モデル (SAM など)
具体的には、Groma は、グローバル画像エンコーディングに基づく位置特定機能を実現するために領域コーディングを導入しています。以下の図に示すように、Groma は、まず、Region Proposer を使用して潜在的なオブジェクトを特定し、次に、Region Encoder を使用して、特定された領域を 1 つずつ特定します。リージョントークンにエンコードされます。
大規模言語モデルは、領域トークンの意味論的な意味に基づいて対応する領域を決定し、出力に領域トークンを挿入することでハイパーリンクのような効果を実現し、視覚的に根拠のある会話を実現します。 同様に、ユーザーが指定した領域も、Region Encoder を通じて対応する領域トークンにエンコードしてユーザー コマンドに挿入することができるため、マルチモーダル モデルは指定された領域に焦点を当て、方向性のある回答を生成できます。測位の堅牢性と精度を向上させるために、Groma は 800 万を超えるデータ (SA1B を含む)
さらに、Groma は分離された設計のおかげで、Region Proposer/Encoder の入力には高解像度の特徴マップを使用し、大規模なモデルの入力には低解像度の特徴マップを使用できるため、位置決めパフォーマンスを損なうことなく計算量を削減できます。
実験結果Groma は、従来のグラウンディング ベンチマークで MiniGPT-v2 および Qwen-VL を上回るパフォーマンスを実証しました。同時に、Groma は、マルチモーダル大規模モデルに共通する VQA ベンチマーク (LLaVA-COCO) で対話機能と推論機能を検証しました。
視覚的な比較では、Groma の方が高い再現率と幻覚の少なさも示しました。
さらに、Groma は、対話機能とポジショニング機能を統合した紹介ダイアログとグラウンディング チャットもサポートしています。
大規模言語モデルの強力な認知推論機能のおかげで、マルチモーダル大規模モデルは視覚的理解タスクにおいて優れたパフォーマンスを発揮します。
ただし、検出セグメンテーション、深度推定などの一部の従来の視覚タスクは視覚認識機能に依存しており、これはまさに大規模な言語モデルに欠けているものです。
Groma は、この問題に対する新しい解決策を提供します。それは、知覚と認知を分離し、知覚を担当するビジョントークナイザーと認知を担当する大規模言語モデルを使用します。
最初に知覚し、次に認知するこの形式は、人間の視覚プロセスとより一致しているだけでなく、大規模な言語モデルを再トレーニングする際の計算オーバーヘッドも回避します。
5 月 15 日、ByteDance は自社開発の Doubao 大規模モデルを発表しました。これはマルチモーダル機能を提供し、ダウンストリームでは Doubao APP、Kouzi、Jimeng などの 50 以上のビジネスをサポートし、Volcano エンジンを通じて企業顧客に開放されています。企業の効率向上とインテリジェントなイノベーションの加速を支援します。現在、Doubao APP は中国市場で最も多くのユーザーを抱える AIGC アプリケーションとなっています。 ByteDance は引き続き優秀な人材と最先端のテクノロジーへの投資を増やし、業界の最大の技術的課題や困難に取り組んでいます。
プロジェクトのウェブサイト:
https://www.php.cn/link/07a81d45ff030b63fe2a0f375b779f09
紙のリンク: https://www.php.cn/link/ b82b80956cfbe75101bd223fe6319dec
オープンソースコード:
https://www.php.cn/link/b984bddf9e7c8fb09854e208c0284764
以上がHKU Byte は、まず人間の知覚をシミュレートし、次に認知をシミュレートして、画像内のオブジェクトの位置を正確に特定する、マルチモーダル大規模モデルの新しいパラダイムを提案しますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

Video Face Swap
完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック











従来のコンピューティングを超える能力を備えているだけでなく、より低コストでより効率的なパフォーマンスを実現する人工知能モデルを想像してみてください。これは SF ではありません。世界で最も強力なオープンソース MoE モデルである DeepSeek-V2[1] が登場しました。 DeepSeek-V2 は、経済的なトレーニングと効率的な推論の特徴を備えた強力な専門家混合 (MoE) 言語モデルです。これは 236B のパラメータで構成されており、そのうち 21B は各マーカーをアクティブにするために使用されます。 DeepSeek67B と比較して、DeepSeek-V2 はパフォーマンスが優れていると同時に、トレーニング コストを 42.5% 節約し、KV キャッシュを 93.3% 削減し、最大生成スループットを 5.76 倍に高めます。 DeepSeek は一般的な人工知能を研究する会社です

AI は確かに数学を変えつつあります。最近、この問題に細心の注意を払っている陶哲軒氏が『米国数学協会会報』(米国数学協会会報)の最新号を送ってくれた。 「機械は数学を変えるのか?」というテーマを中心に、多くの数学者が意見を述べ、そのプロセス全体は火花に満ち、ハードコアで刺激的でした。著者には、フィールズ賞受賞者のアクシャイ・ベンカテシュ氏、中国の数学者鄭楽軍氏、ニューヨーク大学のコンピューター科学者アーネスト・デイビス氏、その他業界で著名な学者を含む強力な顔ぶれが揃っている。 AI の世界は劇的に変化しています。これらの記事の多くは 1 年前に投稿されたものです。

Google が推進する JAX のパフォーマンスは、最近のベンチマーク テストで Pytorch や TensorFlow のパフォーマンスを上回り、7 つの指標で 1 位にランクされました。また、テストは最高の JAX パフォーマンスを備えた TPU では行われませんでした。ただし、開発者の間では、依然として Tensorflow よりも Pytorch の方が人気があります。しかし、将来的には、おそらくより大規模なモデルが JAX プラットフォームに基づいてトレーニングされ、実行されるようになるでしょう。モデル 最近、Keras チームは、ネイティブ PyTorch 実装を使用して 3 つのバックエンド (TensorFlow、JAX、PyTorch) をベンチマークし、TensorFlow を使用して Keras2 をベンチマークしました。まず、主流のセットを選択します

Boston Dynamics Atlas は正式に電動ロボットの時代に突入します!昨日、油圧式アトラスが歴史の舞台から「涙ながらに」撤退したばかりですが、今日、ボストン・ダイナミクスは電動式アトラスが稼働することを発表しました。ボストン・ダイナミクス社は商用人型ロボットの分野でテスラ社と競争する決意を持っているようだ。新しいビデオが公開されてから、わずか 10 時間ですでに 100 万人以上が視聴しました。古い人が去り、新しい役割が現れるのは歴史的な必然です。今年が人型ロボットの爆発的な年であることは間違いありません。ネットユーザーは「ロボットの進歩により、今年の開会式は人間のように見え、人間よりもはるかに自由度が高い。しかし、これは本当にホラー映画ではないのか?」とコメントした。ビデオの冒頭では、アトラスは仰向けに見えるように地面に静かに横たわっています。次に続くのは驚くべきことです

今月初め、MIT やその他の機関の研究者らは、MLP に代わる非常に有望な代替案である KAN を提案しました。 KAN は、精度と解釈可能性の点で MLP よりも優れています。また、非常に少数のパラメーターを使用して、多数のパラメーターを使用して実行する MLP よりも優れたパフォーマンスを発揮できます。たとえば、著者らは、KAN を使用して、より小規模なネットワークと高度な自動化で DeepMind の結果を再現したと述べています。具体的には、DeepMind の MLP には約 300,000 個のパラメーターがありますが、KAN には約 200 個のパラメーターしかありません。 KAN は、MLP が普遍近似定理に基づいているのに対し、KAN はコルモゴロフ-アーノルド表現定理に基づいているのと同様に、強力な数学的基礎を持っています。以下の図に示すように、KAN は

テスラのロボット「オプティマス」の最新映像が公開され、すでに工場内で稼働可能となっている。通常の速度では、バッテリー(テスラの4680バッテリー)を次のように分類します:公式は、20倍の速度でどのように見えるかも公開しました - 小さな「ワークステーション」上で、ピッキング、ピッキング、ピッキング:今回は、それがリリースされたハイライトの1つビデオの内容は、オプティマスが工場内でこの作業を完全に自律的に行い、プロセス全体を通じて人間の介入なしに完了するというものです。そして、オプティマスの観点から見ると、自動エラー修正に重点を置いて、曲がったバッテリーを拾い上げたり配置したりすることもできます。オプティマスのハンドについては、NVIDIA の科学者ジム ファン氏が高く評価しました。オプティマスのハンドは、世界の 5 本指ロボットの 1 つです。最も器用。その手は触覚だけではありません

この論文では、自動運転においてさまざまな視野角 (遠近法や鳥瞰図など) から物体を正確に検出するという問題、特に、特徴を遠近法 (PV) 空間から鳥瞰図 (BEV) 空間に効果的に変換する方法について検討します。 Visual Transformation (VT) モジュールを介して実装されます。既存の手法は、2D から 3D への変換と 3D から 2D への変換という 2 つの戦略に大別されます。 2D から 3D への手法は、深さの確率を予測することで高密度の 2D フィーチャを改善しますが、特に遠方の領域では、深さ予測に固有の不確実性により不正確さが生じる可能性があります。 3D から 2D への方法では通常、3D クエリを使用して 2D フィーチャをサンプリングし、Transformer を通じて 3D と 2D フィーチャ間の対応のアテンション ウェイトを学習します。これにより、計算時間と展開時間が増加します。

目標検出は自動運転システムにおいて比較的成熟した問題であり、その中でも歩行者検出は最も初期に導入されたアルゴリズムの 1 つです。ほとんどの論文では非常に包括的な研究が行われています。ただし、サラウンドビューに魚眼カメラを使用した距離認識については、あまり研究されていません。放射状の歪みが大きいため、標準のバウンディング ボックス表現を魚眼カメラに実装するのは困難です。上記の説明を軽減するために、拡張バウンディング ボックス、楕円、および一般的な多角形の設計を極/角度表現に探索し、これらの表現を分析するためのインスタンス セグメンテーション mIOU メトリックを定義します。提案された多角形モデルの FisheyeDetNet は、他のモデルよりも優れたパフォーマンスを示し、同時に自動運転用の Valeo 魚眼カメラ データセットで 49.5% の mAP を達成しました。
