目次
生成アルゴリズム
VAE
敵対的生成ネットワーク
ジェネレーター モデル
識別子モデル
フローベースのモデル
正規化された流れモデル
自己回帰フローのモデル
概要
ホームページ テクノロジー周辺機器 AI 生成モデル VAE、GAN、およびフローベース モデルの詳細な比較

生成モデル VAE、GAN、およびフローベース モデルの詳細な比較

Apr 12, 2023 pm 06:40 PM
AI 機械学習 ml

Ian Goodfellow と他の研究者が論文で敵対的生成ネットワークを紹介してから 2 年後、Yann LeCun は敵対的トレーニングを「過去 10 年間で ML で最も興味深いアイデア」と呼びました。 GAN は興味深く有望ですが、まったく異なる観点から従来の AI の問題を解決する生成モデルのファミリーの一部にすぎません。この記事では、3 つの一般的な生成モデルを比較します。

生成アルゴリズム

機械学習について考えるとき、おそらく最初に思い浮かぶのは判別アルゴリズムです。識別モデルは、入力データの特性に基づいて入力データのラベルまたはカテゴリを予測するもので、すべての分類および予測ソリューションの中心となります。これらのモデルとは対照的に、生成アルゴリズムは、データについてのストーリーを伝え、データがどのように生成されたかについて考えられる説明を提供するのに役立ちます。特徴をラベルにマッピングする判別アルゴリズムとは異なり、生成モデルは、ラベルが与えられた特徴を予測しようとします。

ラベル y とモデルによって定義された特徴 x の間の関係を区別し、「y をどのように取得するか」という質問に答えるモデルを生成します。生成モデルのモデルは P(観測値/原因) であり、ベイズの定理を使用して P(原因/観測値) を計算します。このようにして、p(x|y)、y が与えられた場合の x の確率、またはラベルまたはクラスが与えられた場合の特徴の確率を取得できます。実際、生成アルゴリズムは、おそらく個々のクラスの分布をモデル化するため、分類器としても使用できます。

生成アルゴリズムは数多くありますが、ディープ生成モデルのカテゴリに分類される最も人気のあるモデルは、変分オートエンコーダー (VAE)、gan、およびフローベースのモデルです。

VAE

変分オートエンコーダ (VAE) は、「潜在空間における観測の確率的記述を提供する」生成モデルです。簡単に言えば、これは、VAE が潜在属性を確率分布として保存することを意味します。

変分オートエンコーダ (Kingma & Welling、2014) または VAE のアイデアは、変分ベイジアンおよびグラフィカル モデル手法に深く根ざしています。

生成モデル VAE、GAN、およびフローベース モデルの詳細な比較

標準のオートエンコーダは、エンコーダとデコーダという 2 つの同様のネットワークで構成されます。エンコーダーは入力を受け取り、それをより小さい表現に変換します。デコーダーはそれを元の入力に変換するために使用できます。入力を変換する潜在空間と、エンコード ベクトルが存在する空間は連続的ではない可能性があります。誰もが潜在空間からランダムにサンプリングしたり、連続潜在空間から入力画像のバリエーションを生成したりしたいと考えているため、これは生成モデルにとって問題です。

変分オートエンコーダには連続的な潜在空間があり、ランダム サンプリングと補間がより便利になります。これを実現するために、エンコーダの隠れノードはエンコード ベクトルを出力せず、代わりに同じサイズの 2 つのベクトル (平均ベクトルと標準偏差ベクトル) を出力します。各隠れノードは、それ自体がガウス分布であるとみなします。ここで、平均および標準偏差ベクトルの i 番目の要素は、i 番目の確率変数の平均および標準偏差の値に対応します。この分布ベクトルからサンプリングし、デコーダは入力ベクトルの確率分布からランダムにサンプリングします。このプロセスはランダム生成です。これは、同じ入力であっても、平均と標準偏差が一定に保たれる場合、実際のエンコードは各パスで異なることを意味します。

生成モデル VAE、GAN、およびフローベース モデルの詳細な比較

オートエンコーダの損失は、再構築損失 (出力が入力にどれだけ似ているか) と潜在損失 (隠れたノードが法線ノードにどれだけ近いか) を最小限に抑えることです。分布)。潜在的な損失が小さいほど、符号化できる情報が少なくなるため、再構成損失が増加するため、潜在的な損失と再構成損失の間にはトレードオフの関係があります。潜在的な損失が小さい場合、生成された画像はトレーニング画像に類似しすぎて、パフォーマンスが低下します。再構成損失が小さい場合、トレーニング中の再構成画像の効果は向上しますが、生成された新しい画像は再構成画像とは大きく異なるため、適切なバランスを見つける必要があります。

VAE は、シーケンシャルと非シーケンシャル、連続または離散、ラベル付きまたはラベルなしなど、さまざまなタイプのデータを処理できるため、非常に強力な生成ツールになります。

しかし、VAE の大きな欠点は、VAE が生成する出力が不鮮明であることです。 Dosovitskiy と Brox が指摘したように、VAE モデルは非現実的で曖昧なサンプルを生成することがよくあります。これは、データ分布の復元方法と損失関数の計算方法に起因します。 Zhaoらによる2017年の論文では、出力品質を向上させるために変分ベイジアン法を使用せずにVAEを修正することが提案されている。

生成モデル VAE、GAN、およびフローベース モデルの詳細な比較

敵対的生成ネットワーク

敵対的生成ネットワーク (GAN) は、新しいコンテンツを生成できる深層学習に基づく生成モデルです。 GAN アーキテクチャは、Ian Goodfellow らによる 2014 年の論文「Generative Adversarial Networks」で初めて説明されました。

GAN は、2 つのサブモデルを使用した教師あり学習アプローチを採用しています。1 つは新しいサンプルを生成するジェネレーター モデル、もう 1 つはサンプルを本物か偽物 (生成されたもの) として分類しようとするディスクリミネーター モデルです。

ジェネレーター: 問題領域から新しい妥当な例を生成するために使用されるモデル。

Frequency Discriminator: サンプルを本物 (ドメインから) または偽物 (生成) として分類するために使用されるモデル。

2 つのモデルは競合相手としてトレーニングされます。ジェネレーターはサンプル データを直接生成します。その対戦相手であるディスクリミネーターは、トレーニング データから抽出されたサンプルとジェネレーターから抽出されたサンプルを区別しようとします。この競合プロセスは、識別子モデルが半分以上の時間で真か偽かを判断できないまで、トレーニング中に継続します。これは、ジェネレーター モデルが非常に現実的なデータを生成していることを意味します。

生成モデル VAE、GAN、およびフローベース モデルの詳細な比較

#ディスクリミネーターが本物か偽物のサンプルを識別することに成功すると、パラメーターは変更されずに報酬が与えられます。ジェネレーターが間違いを犯した場合、罰せられ、パラメーターが更新されます。理想的な世界では、ディスクリミネーターが違いを区別できず、「不確実」(たとえば、50% の真か偽) を予測するときはいつでも、ジェネレーターは入力ドメインから完全なコピーを生成できます。

しかし、ここでは各モデルが他のモデルを圧倒する可能性があります。弁別器が良すぎる場合、0 または 1 に非常に近い値が返され、ジェネレーターは更新された勾配を取得するのに問題が発生します。ジェネレーターが優秀すぎると、ディスクリミネーターの弱点が悪用され、偽陰性が発生します。したがって、2 つのニューラル ネットワークは、それぞれの学習率を通じて達成される同様の「スキル レベル」を持っている必要があり、これが GAN のトレーニングが難しい理由の 1 つでもあります。

ジェネレーター モデル

ジェネレーターは、固定長のランダム ベクトルを入力として受け取り、定義されたドメイン内でサンプルを生成します。このベクトルはガウス分布からランダムに抽出されます。トレーニング後, この多次元ベクトル空間内の点は問題領域内の点に対応し, データ分布の圧縮表現を形成します. このステップは VAE に似ています. このベクトル空間は潜在空間またはベクトルと呼ばれます潜在変数で構成される空間。 GAN のジェネレーターは、潜在空間内の選択されたポイントを平均します。潜在空間から抽出された新しい点は、ジェネレーター モデルへの入力として提供され、新しい異なる出力例を生成するために使用できます。トレーニング後、ジェネレーター モデルは保持され、新しいサンプルの生成に使用されます。

識別子モデル

識別子モデルは、サンプル (トレーニング データセットからの実際のサンプル、またはジェネレーター モデルによって生成されたサンプル) を入力として受け取り、real または fake( のバイナリ クラス ラベルを予測します)生成されます)。識別子は、通常の (そして理解しやすい) 分類モデルです。

トレーニング プロセスの後、ジェネレーターに興味があるため、ディスクリミネーターは破棄されます。もちろん、弁別器は他の目的にも使用できます。

GAN は実行可能なサンプルを生成できますが、元の GAN にも欠点があります:

  • 画像は何らかの任意の手段によって生成されます。ノイズ。特定の特性を持つ画像を生成する場合、どのような初期ノイズ値がその画像を生成するかはわかりませんが、代わりに分布全体を検索する必要があります。
  • GAN は「本物の」画像と「偽の」画像のみを区別します。しかし、「猫」の写真は「猫」のように見えなければならないという制約はありません。したがって、実際のオブジェクトが含まれていない画像が生成される可能性がありますが、スタイルは似ています。
  • GAN のトレーニングには長い時間がかかります。 GAN には、単一の GPU では数時間、単一の CPU では 1 日以上かかる場合があります。

フローベースのモデル

フローベースの生成モデルは、扱いやすいサンプリングと潜在変数推論を備えた正確な対数尤度モデルです。フローベースのモデルは、観測値の正確な対数尤度を計算できるように、事前のサンプルに一連の可逆変換を適用します。前の 2 つのアルゴリズムとは異なり、このモデルはデータ分布を明示的に学習するため、損失関数は負の対数尤度になります。

生成モデル VAE、GAN、およびフローベース モデルの詳細な比較

非線形独立成分分析では、流れモデル f は、標準ガウス潜在変数 z=f(x) への高次元確率変数 x の可逆マッピングとして構築されます。 。フロー モデルの設計における重要なアイデアは、それが任意の全単射関数であり、単純な可逆変換を重ね合わせることによって形成できるということです。要約すると、流れモデル f は、f(x) =f1�����fL(x) のような一連の可逆流れで構成され、各 fi は扱いやすい逆行列と扱いやすいヤコビアン行列を持ちます。

フローベースのモデルには、2 つの大きなカテゴリがあります。正規化されたフローを使用するモデルと、ベース モデルのパフォーマンスを向上させる自己回帰フローを使用するモデルです。

正規化された流れモデル

適切な密度推定を実行できることは、多くの機械学習の問題にとって不可欠です。しかし、これは本質的に複雑です。深層学習モデルでバックプロパゲーションを実行する必要がある場合、導関数を効率的に計算できるように、埋め込まれた確率分布は十分に単純である必要があります。従来の解決策は、潜在変数生成モデルでガウス分布を使用することですが、実際の分布のほとんどははるかに複雑です。 RealNVP や Glow などの正規化フロー (NF) モデルは、分布の堅牢な近似を提供します。一連の可逆変換関数を適用することにより、単純な分布を複雑な分布に変換します。変数変換定理に従って、一連の変換を通じて元の変数を新しい変数に繰り返し置き換えることができ、最終的に最終的なターゲット変数の確率分布が得られます。

自己回帰フローのモデル

正規化されたフローにおけるフロー変換が自己回帰モデルとしてフレーム化され、ベクトル変数の各次元が前の次元で条件付けされる場合、フロー モデルはこの変更になります。は自己回帰フローと呼ばれます。これは、標準化されたプロセスを備えたモデルと比較して一歩前進です。

一般的に使用される自己回帰フロー モデルは、画像生成には PixelCNN、1 次元オーディオ信号には WaveNet です。これらはすべて、一連の因果的畳み込み、つまり順序​​を考慮した畳み込み演算で構成されます。特定のタイムスタンプでの予測は、過去に観察されたデータのみを使用します。 PixelCNN では、因果的畳み込みはマスクされたカーネルによって実行されます。そして、WaveNet は、いくつかのタイムスタンプを通じて出力を将来の時間にシフトします。

生成モデル VAE、GAN、およびフローベース モデルの詳細な比較

フローベースのモデルは、概念的には複雑な分布のモデル化に非常に適していますが、最先端の自己回帰モデルの限界と比較すると、密度推定のパフォーマンスに問題があります。フロー モデルは最初は GAN の代替として優れた出力を生成するかもしれませんが、フロー ベースのモデルは同じ解像度の画像を生成するのに GAN よりも数倍の時間がかかるため、フロー モデル間のトレーニング計算コストには大きな差があります。

概要

各アルゴリズムには、精度と効率の点で利点と限界があります。 GAN とプロセスベースのモデルは一般に、VAE よりも優れた、または実際に近い画像を生成しますが、後者はプロセスベースのモデルよりも時間がかかり、パラメーター効率が優れています。ここでは 3 つのモデルの比較概要を示します:

生成モデル VAE、GAN、およびフローベース モデルの詳細な比較

GAN は並列処理により非常に効率的であることがわかりますが、可逆的ではありません。対照的に、フロー モデルは可逆的ですが効率的ではありません。一方、vae は可逆的で効率的ですが、並列計算できません。これらの特性に基づいて、出力、トレーニング プロセス、および実際の使用における効率の間でトレードオフを行うことができます。

以上が生成モデル VAE、GAN、およびフローベース モデルの詳細な比較の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

Bytedance Cutting が SVIP スーパー メンバーシップを開始: 継続的な年間サブスクリプションは 499 元で、さまざまな AI 機能を提供 Bytedance Cutting が SVIP スーパー メンバーシップを開始: 継続的な年間サブスクリプションは 499 元で、さまざまな AI 機能を提供 Jun 28, 2024 am 03:51 AM

このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

Rag と Sem-Rag を使用したコンテキスト拡張 AI コーディング アシスタント Rag と Sem-Rag を使用したコンテキスト拡張 AI コーディング アシスタント Jun 10, 2024 am 11:08 AM

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

微調整によって本当に LLM が新しいことを学習できるようになるのでしょうか: 新しい知識を導入すると、モデルがより多くの幻覚を生成する可能性があります 微調整によって本当に LLM が新しいことを学習できるようになるのでしょうか: 新しい知識を導入すると、モデルがより多くの幻覚を生成する可能性があります Jun 11, 2024 pm 03:57 PM

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

GenAI および LLM の技術面接に関する 7 つのクールな質問 GenAI および LLM の技術面接に関する 7 つのクールな質問 Jun 07, 2024 am 10:06 AM

AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou を参照してください。これらの質問は、インターネット上のどこでも見られる従来の質問バンクとは異なります。既成概念にとらわれずに考える必要があります。大規模言語モデル (LLM) は、データ サイエンス、生成人工知能 (GenAI)、および人工知能の分野でますます重要になっています。これらの複雑なアルゴリズムは人間のスキルを向上させ、多くの業界で効率とイノベーションを推進し、企業が競争力を維持するための鍵となります。 LLM は、自然言語処理、テキスト生成、音声認識、推奨システムなどの分野で幅広い用途に使用できます。 LLM は大量のデータから学習することでテキストを生成できます。

あなたが知らない機械学習の 5 つの流派 あなたが知らない機械学習の 5 つの流派 Jun 05, 2024 pm 08:51 PM

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

新しい科学的で複雑な質問応答ベンチマークと大規模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大学、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。 新しい科学的で複雑な質問応答ベンチマークと大規模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大学、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。 Jul 25, 2024 am 06:42 AM

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

SOTA パフォーマンス、厦門マルチモーダルタンパク質-リガンド親和性予測 AI 手法、初めて分子表面情報を結合 SOTA パフォーマンス、厦門マルチモーダルタンパク質-リガンド親和性予測 AI 手法、初めて分子表面情報を結合 Jul 17, 2024 pm 06:37 PM

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性​​を実証しています。 「S」で始まる関連研究

SKハイニックスは8月6日に12層HBM3E、321層NANDなどのAI関連新製品を展示する。 SKハイニックスは8月6日に12層HBM3E、321層NANDなどのAI関連新製品を展示する。 Aug 01, 2024 pm 09:40 PM

8月1日の本サイトのニュースによると、SKハイニックスは本日(8月1日)ブログ投稿を発表し、8月6日から8日まで米国カリフォルニア州サンタクララで開催されるグローバル半導体メモリサミットFMS2024に参加すると発表し、多くの新世代の製品。フューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) の紹介。以前は主に NAND サプライヤー向けのフラッシュ メモリ サミット (FlashMemorySummit) でしたが、人工知能技術への注目の高まりを背景に、今年はフューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) に名前が変更されました。 DRAM およびストレージ ベンダー、さらに多くのプレーヤーを招待します。昨年発売された新製品SKハイニックス

See all articles