ホームページ > テクノロジー周辺機器 > AI > Siglip 2を使用した画像検索機能の向上

Siglip 2を使用した画像検索機能の向上

William Shakespeare
リリース: 2025-03-03 19:01:09
オリジナル
232 人が閲覧しました

siglip 2:vision-languageの強化されたエンコードを使用した画像検索の革新

デジタル資産管理、eコマース、ソーシャルメディアにとって、効率的かつ正確な画像検索が重要です。 Google DeepmindのSiglip 2(言語イメージのプリトレーニングのシグモイド損失)は、画像の類似性と検索を大幅に改善するように設計された最先端の多言語ビジョンエンコーダーです。 その革新的なアーキテクチャは、意味のある視覚表現を抽出する際に以前のモデルを上回り、セマンティックの理解を高め、ゼロショット分類と画像テキスト検索に優れています。これは、自己教師の学習と多様なデータを組み込んだ統一されたトレーニングアプローチを通じて達成されます。

キー学習ポイント

    クリップモデルの基礎と画像の取得におけるその役割を把握します。
  • 微妙な画像のバリエーションを区別する際のソフトマックスベースの損失関数の制限を理解してください。
  • これらの制限を克服するためにSiglipがシグモイド損失関数をどのように利用するかを探ります。
  • 前任者に対するSiglip 2の重要な改善を分析します。
  • ユーザーの画像クエリを使用して機能的な画像検索システムを構築します。
  • Siglip 2のパフォーマンスをSiglipと比較して評価します。
  • この記事は、データサイエンスブログの一部です
  • 目次

コントラスト言語イメージ前訓練(クリップ) クリップのコアコンポーネント

ソフトマックス関数とクロスエントロピー損失 クリップの制限

    • siglipおよびsigmoid損失関数
    • クリップ
    • との重要な違い
    • siglip 2:Siglip
    に対する進歩 Siglip 2のコア機能
    • Siglip 2を使用した画像検索システムの構築とSiglipでの比較分析
    実用的な検索テスト
  • Siglip 2モデル評価
    • siglipモデルの評価
  • 結論
  • よくある質問
    • 対照的な言語イメージ前訓練(クリップ)
    2021年にOpenaiによって導入されたClipは、コンピュータービジョンと自然言語処理を橋渡しする画期的なマルチモーダルモデルです。画像とテキストの共有表現スペースを学習し、ゼロショット画像分類や画像テキスト取得などのタスクを有効にします。
  • 詳細については:Clip VIT-L14:ゼロショット画像分類のマルチモーダルマーベル
  • クリップのコアコンポーネント

クリップは、テキストエンコーダー、画像エンコーダー、および対照的な学習メカニズムで構成されています。このメカニズムは、ペアを一致させるための類似性を最大化し、不一致のペアのために最小化することにより、画像とテキストの表現を整列させます。 トレーニングには、画像テキストペアの大規模なデータセットが含まれます

ソフトマックス関数とクロスエントロピー損失

Clipはエンコーダを使用して、画像とテキストの埋め込みを生成します。 類似性スコア(DOT製品)は、これらの埋め込みの類似性を測定します。 SoftMax関数は、各画像テキストペアの確率分布を生成します。

Boosting Image Search Capabilities Using SigLIP 2

損失関数は、正しいペアリングの類似性スコアを最大化することを目的としています。 ただし、ソフトマックスの正規化は問題につながる可能性があります

Boosting Image Search Capabilities Using SigLIP 2

Boosting Image Search Capabilities Using SigLIP 2クリップの制限

同様のペアでの難易度:

ソフトマックスは、非常に類似した画像テキストペア間の微妙な違いを区別するのに苦労しています。
  • 二次メモリの複雑さ:ペアワイズの類似性計算は、高いメモリの要求につながります。
  • siglipおよびsigmoid喪失関数
  • GoogleのSiglipは、シグモイドベースの損失関数を採用することにより、Clipの制限に対処します。これは、各画像テキストペアで独立して動作し、効率と精度が向上します。

クリップ

との重要な違い

siglip 2:Siglip Siglip 2は、ゼロショット分類、画像テキストの検索、視覚表現抽出でSiglipを大幅に上回ります。 重要な機能は、その動的解像度(NAFLEX)バリアントです Siglip 2のコア機能

Boosting Image Search Capabilities Using SigLIP 2シグモイド&loccaデコーダーを使用したトレーニング:

テキストデコーダーは、接地されたキャプションと参照式の機能を強化します。
  • 改善された微調整された局所セマンティクス:グローバルローカル損失とマスクされた予測損失は、局所的な特徴抽出を改善します。
  • 自己抵抗:
  • モデル内の知識転送を改善します。
  • さまざまな解像度に対するより良い適応性:
  • FIXRESおよびNAFLEXバリアントは、さまざまな画像解像度とアスペクト比を処理します。
  • Siglip 2を使用した画像検索システムの構築とSiglip (このセクションには、オリジナルと同様の画像検索システムを構築するためのPythonコードと説明が含まれていますが、明確さが向上し、潜在的に単純化されたコードが純粋に簡素化されます。 実用的な検索テスト

(このセクションには、Siglip 2モデルとSiglip 2モデルの両方をサンプル画像でテストし、取得した画像を表示し、クエリ画像と類似性を比較した結果が含まれています。)

結論

Siglip 2は、ビジョン言語モデルの実質的な進歩を表し、優れた画像検索機能を提供します。 その効率、精度、および適応性により、さまざまなアプリケーションにわたる貴重なツールになります。

よくある質問

(このセクションはほぼ同じままであり、潜在的に明確にするためにマイナーな言い換えがある可能性があります。)

(注:元の入力で指定されている画像は含まれます。)

以上がSiglip 2を使用した画像検索機能の向上の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
著者別の最新記事
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート