目次
CLIP
ALIGN: ビジュアルとビジョンのスケールアップ- ノイズの多いテキスト監視による言語表現学習
K-LITE: 外部知識による転送可能なビジュアル モデルの学習
ホームページ テクノロジー周辺機器 AI ヴィンセント図の基礎となる CLIP モデルの開発のレビュー

ヴィンセント図の基礎となる CLIP モデルの開発のレビュー

Mar 22, 2024 pm 08:50 PM
AI 機械学習 clip

CLIP は Contrastive Language-Image Pre-training の略で、対照的なテキストと画像のペアに基づく事前トレーニング方法またはモデルです。対照的な学習に依存するマルチモーダル モデルです。CLIP のトレーニング データテキストと画像のペアで構成されており、画像は対応するテキストの説明とペアになっています。モデルは、対照学習を通じて、テキストと画像のペアの関係を理解することを目的としています。

ヴィンセント図の基礎となる CLIP モデルの開発のレビュー

Open AIは、2021年1月にDALL-EとCLIPをリリースしました。どちらのモデルも画像とテキストを組み合わせることができるマルチモーダルモデルです。 DALL-E はテキストに基づいて画像を生成するモデルですが、CLIP はテキストを監視信号として使用して、転送可能な視覚モデルをトレーニングします。

安定拡散モデルでは、CLIP テキスト エンコーダによって抽出されたテキスト特徴が、クロス アテンションを通じて拡散モデルの UNet に埋め込まれます。具体的には、テキストの特徴が注目のキーと値として使用され、UNet の特徴がクエリとして使用されます。つまり、CLIP は実際には、文字情報と画像情報を有機的に結合する、文字と画像の間の重要な架け橋です。この組み合わせにより、モデルは異なるモダリティ間で情報をよりよく理解して処理できるようになり、複雑なタスクを処理する際により良い結果が得られます。このようにして、安定拡散モデルは CLIP のテキスト エンコーディング機能をより効果的に利用できるため、全体的なパフォーマンスが向上し、アプリケーション領域が拡大します。

CLIP

ヴィンセント図の基礎となる CLIP モデルの開発のレビュー

これは、2021 年に OpenAI によって公開された最初の論文です。 CLIP、頭字語を 3 つのコンポーネントに分解する必要があります: (1) 対比、(2) 言語と画像、(3) 事前トレーニング。

言語とイメージから始めましょう。

従来の機械学習モデルでは、通常、テキスト、画像、表形式データ、音声など、単一の入力データのみを受け入れることができます。予測を行うためにさまざまなデータ モダリティを使用する必要がある場合は、複数の異なるモデルをトレーニングする必要があります。 CLIP では、「Language-Image」は、モデルがテキスト (言語) と画像の両方の入力データを受け入れることができることを意味します。この設計により、CLIP はさまざまなモダリティの情報をより柔軟に処理できるようになり、予測機能と適用範囲が向上します。

CLIP は、テキスト エンコーダーと画像エンコーダーという 2 つの異なるエンコーダーを使用してテキストと画像の入力を処理します。これら 2 つのエンコーダは、入力データを低次元の潜在空間にマッピングし、各入力に対応する埋め込みベクトルを生成します。重要な点は、テキスト エンコーダーと画像エンコーダーがデータを同じ空間に埋め込むことです。つまり、元の CLIP 空間は 512 次元のベクトル空間です。この設計により、追加の変換や処理を行わずに、テキストと画像を直接比較および照合できます。このようにして、CLIP はテキストの説明と画像コンテンツを同じベクトル空間で表現できるため、クロスモーダルな意味論的な位置合わせと検索機能が可能になります。この共有埋め込みスペースの設計により、CLIP の一般化機能と適応性が向上し、さまざまなタスクやデータセットで適切に実行できるようになります。

対照的

テキストと画像データを同じベクトル空間に埋め込むことは出発点としては有用かもしれませんが、これを行うだけでは効果はありません。モデルがテキストと画像の表現を効果的に比較できるという保証はありません。たとえば、テキストへの「犬」または「犬の写真」の埋め込みと犬の画像の埋め込みとの間に、合理的で解釈可能な関係を確立することが重要です。ただし、これら 2 つのモデル間のギャップを埋める方法が必要です。

マルチモーダル機械学習では、2 つのモダリティを調整するさまざまな手法がありますが、現在最も一般的な手法はコントラストです。対照的な手法では、2 つのモダリティから入力のペア、つまり画像とそのキャプションを取得し、これらの入力データのペアをできるだけ正確に表現するようにモデルの 2 つのエンコーダーをトレーニングします。同時に、モデルは、ペアになっていない入力 (犬の画像や「車の写真」というテキストなど) を取得し、それらをできるだけ遠くから表現するように促されます。 CLIP は、画像とテキストに対する最初の対比学習手法ではありませんが、そのシンプルさと有効性により、マルチモーダル アプリケーションの主流となっています。

事前トレーニング

CLIP 自体はゼロショット分類、セマンティック検索などのタスクに役立ちますが、アプリケーションは便利ですが、CLIP は、Stable Diffusion や DALL-E から StyleCLIP や OWL-ViT まで、多数のマルチモーダル アプリケーションのビルディング ブロックとしても使用されます。これらの下流アプリケーションのほとんどでは、初期の CLIP モデルが「事前トレーニング」の開始点とみなされ、モデル全体が新しいユースケースに合わせて微調整されます。

OpenAI は、元の CLIP モデルのトレーニングに使用されるデータを明示的に指定したり共有したりしませんでしたが、CLIP の論文では、このモデルがインターネットから収集された 4 億の画像とテキストのペアで実行されたと述べられています。訓練された。

https://www.php.cn/link/7c1bbdaebec5e20e91db1fe61221228f

ALIGN: ビジュアルとビジョンのスケールアップ- ノイズの多いテキスト監視による言語表現学習

ヴィンセント図の基礎となる CLIP モデルの開発のレビュー

CLIP を使用すると、OpenAI は 4 億の画像とテキストのペアを使用します。詳細が提供されていないため、おそらくデータセットの構築方法を正確に知っているでしょう。しかし、新しいデータセットを説明する際に、彼らはインスピレーションとして Google のコンセプト キャプションに注目しました。これは比較的小規模なデータセット (330 万の画像とキャプションのペア) で、高価なフィルタリングと後処理技術を使用しています。これらの技術は強力ですが、特に拡張性があるわけではありません)。 。

そのため、高品質のデータセットが研究の方向性になりました。CLIP の直後、ALIGN はスケール フィルタリングによってこの問題を解決しました。 ALIGN は、慎重に注釈が付けられ、厳選された小規模な画像キャプション データセットに依存せず、代わりに 18 億ペアの画像と代替テキストを活用します。

これらの代替テキストの説明は、平均するとタイトルよりもはるかにノイズが多くなりますが、データセットの巨大なサイズがこれを補って余りあります。著者らは、基本的なフィルタリングを使用して、重複、1,000 を超える関連する代替テキストを含む画像、および情報のない代替テキスト (一般的すぎる、または珍しいタグを含む) を削除しました。これらの簡単な手順により、ALIGN はさまざまなゼロショット タスクや微調整タスクにおいて最先端のレベルに達するか、それを超えます。

https://arxiv.org/abs/2102.05918

K-LITE: 外部知識による転送可能なビジュアル モデルの学習

ヴィンセント図の基礎となる CLIP モデルの開発のレビュー

ALIGN と同様に、K-LITE も比較の問題を解決しています。事前にトレーニングされた高品質の画像とテキストのペアの数が限られているという問題。

K-LITE は、概念の説明、つまりコンテキストや未知の概念と​​しての定義や説明を説明することに重点を置き、幅広い理解を促進します。一般的な説明は、人々が初めて専門用語や珍しい語彙を紹介するとき、通常は単にそれらを定義するか、誰もが知っているものに例えて使用するというものです。

このアプローチを実装するために、マイクロソフトとカリフォルニア大学バークレー校の研究者は、WordNet と Wiktionary を使用して画像とテキストのペアのテキストを強化しました。 ImageNet のクラス ラベルなどの一部の孤立した概念では、概念自体が強化されますが、タイトル (GCC など) では、最も一般的でない名詞句が強化されます。この追加の構造化された知識により、事前トレーニングされたモデルは転移学習タスクで大幅な改善を示します。

#https://arxiv.org/abs/2204.09222

OpenCLIP: 対比言語イメージ学習のための再現可能なスケーリング則

ヴィンセント図の基礎となる CLIP モデルの開発のレビュー

2022 年末までに、テキストとビジュアルの分野でトランスフォーマー モデルが確立されます。両方の分野における先駆的な実証研究により、単峰性タスクにおける変圧器モデルのパフォーマンスが単純なスケーリング則で十分に説明できることも明確に示されました。これは、トレーニング データの量、トレーニング時間、またはモデルのサイズが増加するにつれて、モデルのパフォーマンスをかなり正確に予測できることを意味します。

OpenCLIP は、これまでにリリースされた最大のオープンソースの画像とテキストのペア データセット (5B) を使用して、上記の理論をマルチモーダル シナリオに拡張し、トレーニング データ ペア モデルのパフォーマンスを体系的に研究します。ゼロショットおよび微調整タスクのパフォーマンスへの影響。ユニモーダルの場合と同様に、この研究では、マルチモーダル タスクにおけるモデルのパフォーマンスが、計算、見られるサンプル数、モデル パラメーターの数に関してべき乗則に応じてスケールされることが明らかになりました。

べき乗則の存在よりもさらに興味深いのは、べき乗則スケーリングと事前トレーニング データの関係です。 OpenAI の CLIP モデル アーキテクチャとトレーニング方法を維持しながら、OpenCLIP モデルはサンプル画像取得タスクでより強力なスケーリング機能を示します。 ImageNet でのゼロショット画像分類の場合、OpenAI のモデル (独自のデータセットでトレーニングされた) は、より強力なスケーリング機能を実証しました。これらの調査結果は、下流のパフォーマンスにおけるデータ収集とフィルタリング手順の重要性を強調しています。 https://arxiv.org/abs/2212.07143

しかし、OpenCLIP がリリースされた直後、LAION データ セットは違法な画像が含まれていたため、インターネットから削除されました。

MetaCLIP: CLIP データをわかりやすく理解する

ヴィンセント図の基礎となる CLIP モデルの開発のレビュー

OpenCLIP は、ダウンストリーム タスクのパフォーマンスがどのように変化するかを理解しようとします。データ量、計算量、モデルパラメータの数は様々ですが、MetaCLIPはデータの選び方に重点を置いています。著者らは、「CLIP の成功の主な要因は、モデル アーキテクチャやトレーニング前の目標ではなく、そのデータであると信じています。」

この仮説を検証するために、著者はモデルのアーキテクチャとトレーニング手順を修正し、実験を実施しました。 MetaCLIP チームは、部分文字列のマッチング、フィルタリング、およびデータ分散のバランスに関するさまざまな戦略をテストし、トレーニング データ セット内で各テキストが最大 20,000 回出現したときに最高のパフォーマンスが達成されることを発見しました。この理論をテストするには、次のようにします。初期データプールで 5,400 万回出現した「写真」という単語も、トレーニング データでは画像とテキストのペアが 20,000 に制限されていました。この戦略を使用して、MetaCLIP は Common Crawl データセットからの 4 億の画像とテキストのペアでトレーニングされ、さまざまなベンチマークで OpenAI の CLIP モデルを上回りました。

#https://arxiv.org/abs/2309.16671

DFN: データ フィルタリング ネットワーク

ヴィンセント図の基礎となる CLIP モデルの開発のレビュー

## MetaCLIP に関する研究により、CLIP などの高性能マルチモーダル モデルをトレーニングする場合、データ管理が最も重要な要素である可能性があることが示されています。 MetaCLIP のフィルタリング戦略は非常に成功していますが、主にヒューリスティック手法に基づいています。次に研究者らは、このフィルタリングをより効率的に行うようにモデルをトレーニングできるかどうかに目を向けました。

これを検証するために、著者は概念的な 12M からの高品質データを使用して、低品質データから高品質データをフィルタリングするように CLIP モデルをトレーニングします。このデータ フィルタリング ネットワーク (DFN) は、キュレートされていないデータセット (この場合は共通クロール) から高品質のデータのみを選択することで、より大規模で高品質のデータセットを構築するために使用されます。フィルタリングされたデータでトレーニングされた CLIP モデルは、初期の高品質データのみでトレーニングされたモデルや、フィルタリングされていない大量のデータでトレーニングされたモデルよりも優れたパフォーマンスを発揮しました。

https://arxiv.org/abs/2309.17425

概要

OpenAI の CLIP モデルは大きく変わりました私たちはマルチモーダルなデータを扱います。しかし、CLIP は始まりにすぎません。トレーニング前のデータからトレーニング方法や対比損失関数の詳細に至るまで、CLIP ファミリは過去数年間で驚くべき進歩を遂げました。 ALIGN はノイズの多いテキストをスケーリングし、K-LITE は外部知識を強化し、OpenCLIP はスケーリングの法則を研究し、MetaCLIP はデータ管理を最適化し、DFN はデータ品質を強化します。これらのモデルは、マルチモーダル人工知能の開発における CLIP の役割についての理解を深め、画像とテキストの接続における進歩を示しています。

以上がヴィンセント図の基礎となる CLIP モデルの開発のレビューの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

Bytedance Cutting が SVIP スーパー メンバーシップを開始: 継続的な年間サブスクリプションは 499 元で、さまざまな AI 機能を提供 Bytedance Cutting が SVIP スーパー メンバーシップを開始: 継続的な年間サブスクリプションは 499 元で、さまざまな AI 機能を提供 Jun 28, 2024 am 03:51 AM

このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

Rag と Sem-Rag を使用したコンテキスト拡張 AI コーディング アシスタント Rag と Sem-Rag を使用したコンテキスト拡張 AI コーディング アシスタント Jun 10, 2024 am 11:08 AM

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

微調整によって本当に LLM が新しいことを学習できるようになるのでしょうか: 新しい知識を導入すると、モデルがより多くの幻覚を生成する可能性があります 微調整によって本当に LLM が新しいことを学習できるようになるのでしょうか: 新しい知識を導入すると、モデルがより多くの幻覚を生成する可能性があります Jun 11, 2024 pm 03:57 PM

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

GenAI および LLM の技術面接に関する 7 つのクールな質問 GenAI および LLM の技術面接に関する 7 つのクールな質問 Jun 07, 2024 am 10:06 AM

AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou を参照してください。これらの質問は、インターネット上のどこでも見られる従来の質問バンクとは異なります。既成概念にとらわれずに考える必要があります。大規模言語モデル (LLM) は、データ サイエンス、生成人工知能 (GenAI)、および人工知能の分野でますます重要になっています。これらの複雑なアルゴリズムは人間のスキルを向上させ、多くの業界で効率とイノベーションを推進し、企業が競争力を維持するための鍵となります。 LLM は、自然言語処理、テキスト生成、音声認識、推奨システムなどの分野で幅広い用途に使用できます。 LLM は大量のデータから学習することでテキストを生成できます。

あなたが知らない機械学習の 5 つの流派 あなたが知らない機械学習の 5 つの流派 Jun 05, 2024 pm 08:51 PM

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

新しい科学的で複雑な質問応答ベンチマークと大規模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大学、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。 新しい科学的で複雑な質問応答ベンチマークと大規模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大学、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。 Jul 25, 2024 am 06:42 AM

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

SOTA パフォーマンス、厦門マルチモーダルタンパク質-リガンド親和性予測 AI 手法、初めて分子表面情報を結合 SOTA パフォーマンス、厦門マルチモーダルタンパク質-リガンド親和性予測 AI 手法、初めて分子表面情報を結合 Jul 17, 2024 pm 06:37 PM

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性​​を実証しています。 「S」で始まる関連研究

SKハイニックスは8月6日に12層HBM3E、321層NANDなどのAI関連新製品を展示する。 SKハイニックスは8月6日に12層HBM3E、321層NANDなどのAI関連新製品を展示する。 Aug 01, 2024 pm 09:40 PM

8月1日の本サイトのニュースによると、SKハイニックスは本日(8月1日)ブログ投稿を発表し、8月6日から8日まで米国カリフォルニア州サンタクララで開催されるグローバル半導体メモリサミットFMS2024に参加すると発表し、多くの新世代の製品。フューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) の紹介。以前は主に NAND サプライヤー向けのフラッシュ メモリ サミット (FlashMemorySummit) でしたが、人工知能技術への注目の高まりを背景に、今年はフューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) に名前が変更されました。 DRAM およびストレージ ベンダー、さらに多くのプレーヤーを招待します。昨年発売された新製品SKハイニックス

See all articles