ファイルが小さくなり、品質が高くなります。人気の Stable Diffusion は画像を圧縮できますか?
最近、安定拡散が新たな研究方向として注目されています。 Matthias Bühlmann という名前のブロガーは、このモデルの能力を実験的に調査しようとし、Stable Diffusion が非常に強力な非可逆画像圧縮コーデックであることを発見しました。彼はこの実験分析プロセスを説明するブログを書きました (以下はブログの原文です)。
まず、Matthias Bühlmann が、高圧縮率条件下での安定拡散法と JPG および WebP の圧縮結果を示します。すべての結果は 512x512 ピクセルの解像度でのものです:
サンフランシスコの風景、左から右へ: JPG (6.16kB)、WebP (6.80kB) 、安定した拡散:(4.96kB)。
駄菓子屋、左から右へ: JPG (5.68kB)、WebP (5.71 kB)、安定拡散 (4.98kB)。
#動物の写真、左から右: JPG (5.66 kB)、 WebP (6.74kB)、安定拡散 (4.97kB)。
#これらの例は、安定拡散を使用して画像を圧縮すると、JPG や WebP と比較して、より小さなファイル サイズで優れた画質を維持できることを明確に示しています。
探索実験Matthias Bühlmann は動作原理を分析しました。安定拡散では、3 つのシリーズ学習済み人工ニューラル ネットワークが使用されます。 変分自動エンコーダ (VAE)
- U-Net
- テキスト エンコーディング テキスト エンコーダ
- VAE は、画像空間内の画像を、基礎となる空間表現にエンコードおよびデコードします。ソース画像の潜在的な空間表現 (512 x 512、3x8 または 4x8 ビット) は、解像度が低く (64 x 64)、精度が高くなります (4x32 ビット)。
VAE はトレーニング プロセス中に自ら学習します。モデルが徐々にトレーニングされると、モデルの異なるバージョンの潜在空間表現が異なって見える場合があります (Stable の潜在空間表現など)。 Diffusion v1.4 空間表現は次のとおりです (4 チャネルのカラー画像に再マッピング):
潜在特徴を再展開して解釈した場合(アルファ チャネルを使用して) カラー値に変換しても、画像の主要な特徴は依然として表示され、VAE は高解像度の特徴もピクセル値にエンコードします。
たとえば、VAE エンコード/デコード ラウンドトリップを通じて、次の結果が得られます:
この往復はロスレスではないことに注意してください。たとえば、画像内の青いテープ上の白い単語は、デコード後はわずかに読みにくくなります。 Stable Diffusion v1.4 モデルの VAE は、一般に小さなテキストや顔を表現するのがあまり得意ではありません。
安定拡散の主な目的は、テキストの説明に基づいて画像を生成することであり、そのためにはモデルが画像の潜在的な空間表現を操作する必要があることがわかっています。このモデルは、訓練された U-Net を使用して潜在空間画像を反復的にノイズ除去し、ノイズの中で「見える」(予測する)ものを出力します。これは、私たちが時々雲を形や面として見るのと同じです。反復ノイズ除去ステップでは、3 番目の ML モデル (テキスト エンコーダー) が U-Net をガイドして、さまざまな情報を確認しようとします。
Matthias Bühlmann は、VAE によって生成された潜在表現がどのように効果的に圧縮できるかを分析しています。彼は、VAE で潜在表現をサンプリングしたり、既存の非可逆画像圧縮方法を潜在表現に適用すると、再構成された画像の品質が大幅に低下する一方、VAE 復号化プロセスは潜在表現の品質に対して比較的堅牢であるように見えることを発見しました。
Matthias Bühlmann は、潜在表現を浮動小数点から 8 ビット符号なし整数に量子化し、非常に小さな再構成エラーのみを発見しました。以下の図に示すように、左: 32 ビット浮動小数点ポテンシャル表現、中央: グラウンド トゥルース、右: 8 ビット整数ポテンシャル表現。
彼はまた、パレットとディザリング アルゴリズムを使用してさらに量子化すると、予想外に良好な結果が得られることも発見しました。ただし、VAE を使用して直接デコードすると、パレット化された表現によっていくつかの目に見えるアーティファクトが発生します。
左: 32 ビットの潜在表現、中央: 8 ビットの量子化された潜在表現、右: フロイドスタインバーグ ディザーを使用したパレット化された 8 ビットの潜在表現#パレット化された表現フロイド・スタインバーグのジッターではノイズが発生し、デコード結果が歪みます。そこで Matthias Bühlmann は U-Net を使用して、ジッターによって引き起こされるノイズを除去しました。 4 回の反復の後、再構成された結果は、視覚的には量子化されていないバージョンに非常に近くなります。
#再構成された結果 (左: パレット化された表現)フロイド・スタインバーグ ジッターあり、中央: 4 回の反復後のノイズ除去、右: Ground Truth)。
#結果は非常に良好ですが、上の中央のシンボルの光沢のある影など、いくつかのアーティファクトが発生します。
主観的には、Stable Diffusion 圧縮画像の結果は JPG や WebP よりもはるかに優れていますが、PSNR、SSIM、その他の指標の観点から見ると、Stable Diffusion には明らかな利点はありません。
下の図に示すように、コーデックとしての安定拡散は、画像の粒度を保持する点で他の方法よりもはるかに優れていますが、圧縮アーティファクト、つまり画像内のオブジェクトの形状の影響を受けます。 、など。特性は変更される場合があります。
左: JPG 圧縮、中央: Ground Truth、右: 安定した拡散圧縮。
現在の Stable Diffusion v1.4 モデルでは、圧縮プロセス中にテキスト情報や小さなフォントの顔の特徴を十分に保存できないことは注目に値しますが、Stable Diffusion v1.5 モデルは顔の生成が改善されました。
左: Ground Truth、中央: VAE ラウンドトリップ後 (32 ビット潜在機能)。右: パレット化されたノイズ除去された 8 ビット潜在特徴からのデコードの結果。
ブログの公開後、Matthias Bühlmann の実験分析がみんなの議論を呼び起こしました。
Matthias Bühlmann 自身は、Stable Diffusion の画像圧縮効果は予想以上に優れており、U-Net はディザリングによって発生するノイズを効果的に除去できるようだと考えています。ただし、安定拡散モデルの将来のバージョンには、この画像圧縮機能が含まれなくなる可能性があります。 しかし、一部のネチズンは「VAE 自体が画像圧縮に使用されているのではないか」と疑問を呈しています。たとえば、Transformer ベースの画像圧縮方式 TIC は VAE を使用しています。したがって、マティアス・ビュールマンの実験はやり過ぎのように思えます。 #これについてどう思いますか?
以上がファイルが小さくなり、品質が高くなります。人気の Stable Diffusion は画像を圧縮できますか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









従来のコンピューティングを超える能力を備えているだけでなく、より低コストでより効率的なパフォーマンスを実現する人工知能モデルを想像してみてください。これは SF ではありません。世界で最も強力なオープンソース MoE モデルである DeepSeek-V2[1] が登場しました。 DeepSeek-V2 は、経済的なトレーニングと効率的な推論の特徴を備えた強力な専門家混合 (MoE) 言語モデルです。これは 236B のパラメータで構成されており、そのうち 21B は各マーカーをアクティブにするために使用されます。 DeepSeek67B と比較して、DeepSeek-V2 はパフォーマンスが優れていると同時に、トレーニング コストを 42.5% 節約し、KV キャッシュを 93.3% 削減し、最大生成スループットを 5.76 倍に高めます。 DeepSeek は一般的な人工知能を研究する会社です

AI は確かに数学を変えつつあります。最近、この問題に細心の注意を払っている陶哲軒氏が『米国数学協会会報』(米国数学協会会報)の最新号を送ってくれた。 「機械は数学を変えるのか?」というテーマを中心に、多くの数学者が意見を述べ、そのプロセス全体は火花に満ち、ハードコアで刺激的でした。著者には、フィールズ賞受賞者のアクシャイ・ベンカテシュ氏、中国の数学者鄭楽軍氏、ニューヨーク大学のコンピューター科学者アーネスト・デイビス氏、その他業界で著名な学者を含む強力な顔ぶれが揃っている。 AI の世界は劇的に変化しています。これらの記事の多くは 1 年前に投稿されたものです。

Boston Dynamics Atlas は正式に電動ロボットの時代に突入します!昨日、油圧式アトラスが歴史の舞台から「涙ながらに」撤退したばかりですが、今日、ボストン・ダイナミクスは電動式アトラスが稼働することを発表しました。ボストン・ダイナミクス社は商用人型ロボットの分野でテスラ社と競争する決意を持っているようだ。新しいビデオが公開されてから、わずか 10 時間ですでに 100 万人以上が視聴しました。古い人が去り、新しい役割が現れるのは歴史的な必然です。今年が人型ロボットの爆発的な年であることは間違いありません。ネットユーザーは「ロボットの進歩により、今年の開会式は人間のように見え、人間よりもはるかに自由度が高い。しかし、これは本当にホラー映画ではないのか?」とコメントした。ビデオの冒頭では、アトラスは仰向けに見えるように地面に静かに横たわっています。次に続くのは驚くべきことです

今月初め、MIT やその他の機関の研究者らは、MLP に代わる非常に有望な代替案である KAN を提案しました。 KAN は、精度と解釈可能性の点で MLP よりも優れています。また、非常に少数のパラメーターを使用して、多数のパラメーターを使用して実行する MLP よりも優れたパフォーマンスを発揮できます。たとえば、著者らは、KAN を使用して、より小規模なネットワークと高度な自動化で DeepMind の結果を再現したと述べています。具体的には、DeepMind の MLP には約 300,000 個のパラメーターがありますが、KAN には約 200 個のパラメーターしかありません。 KAN は、MLP が普遍近似定理に基づいているのに対し、KAN はコルモゴロフ-アーノルド表現定理に基づいているのと同様に、強力な数学的基礎を持っています。以下の図に示すように、KAN は

Google が推進する JAX のパフォーマンスは、最近のベンチマーク テストで Pytorch や TensorFlow のパフォーマンスを上回り、7 つの指標で 1 位にランクされました。また、テストは最高の JAX パフォーマンスを備えた TPU では行われませんでした。ただし、開発者の間では、依然として Tensorflow よりも Pytorch の方が人気があります。しかし、将来的には、おそらくより大規模なモデルが JAX プラットフォームに基づいてトレーニングされ、実行されるようになるでしょう。モデル 最近、Keras チームは、ネイティブ PyTorch 実装を使用して 3 つのバックエンド (TensorFlow、JAX、PyTorch) をベンチマークし、TensorFlow を使用して Keras2 をベンチマークしました。まず、主流のセットを選択します

テスラのロボット「オプティマス」の最新映像が公開され、すでに工場内で稼働可能となっている。通常の速度では、バッテリー(テスラの4680バッテリー)を次のように分類します:公式は、20倍の速度でどのように見えるかも公開しました - 小さな「ワークステーション」上で、ピッキング、ピッキング、ピッキング:今回は、それがリリースされたハイライトの1つビデオの内容は、オプティマスが工場内でこの作業を完全に自律的に行い、プロセス全体を通じて人間の介入なしに完了するというものです。そして、オプティマスの観点から見ると、自動エラー修正に重点を置いて、曲がったバッテリーを拾い上げたり配置したりすることもできます。オプティマスのハンドについては、NVIDIA の科学者ジム ファン氏が高く評価しました。オプティマスのハンドは、世界の 5 本指ロボットの 1 つです。最も器用。その手は触覚だけではありません

目標検出は自動運転システムにおいて比較的成熟した問題であり、その中でも歩行者検出は最も初期に導入されたアルゴリズムの 1 つです。ほとんどの論文では非常に包括的な研究が行われています。ただし、サラウンドビューに魚眼カメラを使用した距離認識については、あまり研究されていません。放射状の歪みが大きいため、標準のバウンディング ボックス表現を魚眼カメラに実装するのは困難です。上記の説明を軽減するために、拡張バウンディング ボックス、楕円、および一般的な多角形の設計を極/角度表現に探索し、これらの表現を分析するためのインスタンス セグメンテーション mIOU メトリックを定義します。提案された多角形モデルの FisheyeDetNet は、他のモデルよりも優れたパフォーマンスを示し、同時に自動運転用の Valeo 魚眼カメラ データセットで 49.5% の mAP を達成しました。

この論文では、自動運転においてさまざまな視野角 (遠近法や鳥瞰図など) から物体を正確に検出するという問題、特に、特徴を遠近法 (PV) 空間から鳥瞰図 (BEV) 空間に効果的に変換する方法について検討します。 Visual Transformation (VT) モジュールを介して実装されます。既存の手法は、2D から 3D への変換と 3D から 2D への変換という 2 つの戦略に大別されます。 2D から 3D への手法は、深さの確率を予測することで高密度の 2D フィーチャを改善しますが、特に遠方の領域では、深さ予測に固有の不確実性により不正確さが生じる可能性があります。 3D から 2D への方法では通常、3D クエリを使用して 2D フィーチャをサンプリングし、Transformer を通じて 3D と 2D フィーチャ間の対応のアテンション ウェイトを学習します。これにより、計算時間と展開時間が増加します。
