ちょっとしたトリックを使って拡散モデルを発掘すると、生成された画像は元の学習データのほぼレプリカとなり、プライバシーが暴露されようとしています。
ノイズ除去拡散モデルは、反復的なノイズ除去プロセスを通じてトレーニング分布から画像を生成する生成ニューラル ネットワークの新しいクラスです。このタイプの拡散モデルは高品質のサンプルを生成し、GAN や VAE などの以前の方法よりも拡張および制御が容易です。その結果、急速な開発を経て、すでに高解像度の画像を生成できるようになり、DALL-E 2 のような大型モデルには大きな関心が集まっています。
生成拡散モデルの利点は、表面的にはトレーニング セット内のどの画像とも異なる新しい画像を合成できることにあります。実際、これまでの大規模なトレーニングの取り組みでは、過剰学習が問題になることは判明しておらず、プライバシーに敏感な分野の研究者は、実際の画像を生成するための合成例を生成することで、拡散モデルを使用してプライバシーを保護できるとさえ示唆しています。この一連の作業は、拡散モデルが学習データを記憶・再生成しないという前提で行われます。そうすることは、すべてのプライバシー保証に違反し、モデルの一般化やデジタル偽造に関する多くの問題を引き起こすことになります。
この記事では、Google、DeepMind、その他の機関の研究者が、SOTA 普及モデルが実際に 1 つのトレーニング サンプルを記憶し、再生成できることを証明しました。
論文アドレス: https://arxiv.org/pdf/2301.13188v1.pdf
まず、この研究では、画像モデルにおけるメモリの新しい定義を提案し、実装します。次に、研究では、標準的な方法を使用して画像を生成し、一部の画像にラベルを付けるという 2 段階のデータ抽出攻撃を設計しました。この研究では、この手法を安定拡散と Imagen に適用し、個人を特定できる写真から商標ロゴに至るまで、ほぼ同一のトレーニング画像のコピーを 100 枚以上抽出しました (図 1)。
記憶の仕組みとその理由をより深く理解するために、研究者は何百人もの人々をCIFAR10拡散モデルで訓練し、モデルの精度、ハイパーパラメータ、拡張、重複排除がプライバシーに及ぼす影響。拡散モデルは、この研究で評価された画像モデルの中で最もプライベートな形式であり、GAN の 2 倍のトレーニング データが漏洩します。さらに悪いことに、既存のプライバシー強化テクノロジーでは、許容できるプライバシーと実用性のトレードオフを提供できないことも調査でわかっています。全体として、このホワイトペーパーは、ますます強力になる生成モデルとデータプライバシーの間に存在する緊張を強調し、拡散モデルがどのように機能するか、またそれらを適切に展開する方法について疑問を提起します。
なぜこの研究をしたいのですか?拡散モデルがトレーニング データをどのように記憶して再生成するかを理解するには、2 つの動機があります。
1 つ目は、プライバシー リスクを理解することです。インターネットからデータを収集する拡散モデルを再生成すると、言語モデルと同様のプライバシーと著作権のリスクが生じる可能性があります。たとえば、著作権で保護されたテキストやソース コードを記憶したり再生成したりすると、侵害の潜在的な兆候が現れることが指摘されています。同様に、プロのアーティストが作成した画像をコピーすることはデジタル偽造と呼ばれ、アートの世界では議論が行われています。
2 つ目は、一般化を理解することです。データのプライバシーに加えて、拡散モデルがトレーニング データを記憶する方法と理由を理解することは、拡散モデルの一般化能力を理解するのに役立ちます。たとえば、大規模な生成モデルに関する一般的な質問は、その印象的な結果が実際の生成によるものなのか、それともトレーニング データを直接コピーしてリミックスした結果なのかということです。メモリを研究することにより、生成モデルがそのようなデータ複製を実行する速度を具体的に経験的に説明することができます。
SOTA 拡散モデルからデータを抽出します安定拡散からデータを抽出します
今度はトレーニングを抽出します最大かつ最も人気のあるオープンソース拡散モデルである Stable Diffusion からのデータ。
この抽出では、次の 2 つのステップを含む以前の作業の方法が画像に適用されます:
1. 標準的なサンプリング方法を使用した拡散モデルと生成前のセクションの既知のプロンプトを使用した複数の例。
2. 推論を実行して、記憶されたトレーニング モデルから新しい世代モデルを分離します。
侵入の有効性を評価するために、調査ではトレーニング データセットから最も繰り返された 350,000 個の例を選択し、各プロンプトに対して 500 個の候補画像を生成しました (合計 1 億 7,500 万個の画像が生成されました)。
まず、この研究では、生成されたこれらすべての画像を並べ替えて、どの画像がトレーニング データの記憶によって生成されたものであるかを判断します。これらの生成された画像のそれぞれは、論文の定義 1 に基づいてトレーニング画像と比較され、各画像には抽出されたか抽出されなかったかの注釈が付けられます。研究では 94 枚の画像が抽出されたことがわかりました。これらの画像が任意の定義に適合しないことを確認するために、研究ではまた、記憶の有無にかかわらず、視覚分析を通じて生成された最初の 1,000 枚の画像に手動で注釈を付けました。そして、別の 13 枚 (合計 109 画像)研究のL_2ノルムの定義を満たしていなかったとしても、トレーニング例のほぼコピーであることが判明しました。図 3 は、ほぼ完璧なピクセル精度で再現された、抽出された画像のサブセットを示しています。
#この実験では、注釈付きの順序付けされた画像セットを考慮した計算曲線も得られます。抽出された画像の数と偽の画像の数を評価します。侵入の陽性率。侵入は非常に正確です。生成された 1 億 7,500 万枚の画像のうち、誤検知が 0 件の 50 枚のメモリ イメージを識別でき、すべてのメモリ イメージを 50% 以上の精度で抽出できました。図 4 には、両方のメモリ定義の適合率と再現率の曲線が含まれています。
#画像からデータを抽出する
安定拡散は現在、公開されている拡散モデルの中で最良の選択ですが、一部の非公開モデルは、より大きなモデルとデータセットを使用してより優れたパフォーマンスを実現しています。以前の研究では、モデルが大きいほどトレーニング データを記憶する可能性が高いことが判明したため、この研究では、20 億パラメータのテキストから画像への拡散モデルである Imagen に注目しました。
驚くべきことに、研究により、Imagen での非配布画像のハッキングは、Stable Diffusion でのハッキングよりも効果的であることが判明しました。 Imagen では、この研究では、配布外 (OOD) スコアが最も高い 500 枚の画像を抽出することを試みました。 Imagen は 3 つの画像 (トレーニング データ セット内で一意) を記憶してコピーします。対照的に、研究で同じ方法を安定拡散に適用した場合、最も外れ値のサンプル 10,000 個を抽出しようとしても、記憶を特定できませんでした。したがって、Imagen は、コピーされたイメージとコピーされていないイメージの両方において、安定した拡散ほどプライベートではありません。これは、Imagen が安定拡散よりも大きなモデルを使用しているため、より多くの画像を記憶していることが原因である可能性があります。さらに、Imagen はより小さなデータセットに対してより多くの反復を行ってトレーニングするため、メモリ レベルの向上にも役立ちます。
以上がちょっとしたトリックを使って拡散モデルを発掘すると、生成された画像は元の学習データのほぼレプリカとなり、プライバシーが暴露されようとしています。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









0.この記事は何をするのですか?私たちは、多用途かつ高速な最先端の生成単眼深度推定モデルである DepthFM を提案します。従来の深度推定タスクに加えて、DepthFM は深度修復などの下流タスクでも最先端の機能を実証します。 DepthFM は効率的で、いくつかの推論ステップ内で深度マップを合成できます。この作品について一緒に読みましょう〜 1. 論文情報タイトル: DepthFM: FastMonocularDepthEstimationwithFlowMatching 著者: MingGui、JohannesS.Fischer、UlrichPrestel、PingchuanMa、Dmytr

従来のコンピューティングを超える能力を備えているだけでなく、より低コストでより効率的なパフォーマンスを実現する人工知能モデルを想像してみてください。これは SF ではありません。世界で最も強力なオープンソース MoE モデルである DeepSeek-V2[1] が登場しました。 DeepSeek-V2 は、経済的なトレーニングと効率的な推論の特徴を備えた強力な専門家混合 (MoE) 言語モデルです。これは 236B のパラメータで構成されており、そのうち 21B は各マーカーをアクティブにするために使用されます。 DeepSeek67B と比較して、DeepSeek-V2 はパフォーマンスが優れていると同時に、トレーニング コストを 42.5% 節約し、KV キャッシュを 93.3% 削減し、最大生成スループットを 5.76 倍に高めます。 DeepSeek は一般的な人工知能を研究する会社です

AI は確かに数学を変えつつあります。最近、この問題に細心の注意を払っている陶哲軒氏が『米国数学協会会報』(米国数学協会会報)の最新号を送ってくれた。 「機械は数学を変えるのか?」というテーマを中心に、多くの数学者が意見を述べ、そのプロセス全体は火花に満ち、ハードコアで刺激的でした。著者には、フィールズ賞受賞者のアクシャイ・ベンカテシュ氏、中国の数学者鄭楽軍氏、ニューヨーク大学のコンピューター科学者アーネスト・デイビス氏、その他業界で著名な学者を含む強力な顔ぶれが揃っている。 AI の世界は劇的に変化しています。これらの記事の多くは 1 年前に投稿されたものです。

Boston Dynamics Atlas は正式に電動ロボットの時代に突入します!昨日、油圧式アトラスが歴史の舞台から「涙ながらに」撤退したばかりですが、今日、ボストン・ダイナミクスは電動式アトラスが稼働することを発表しました。ボストン・ダイナミクス社は商用人型ロボットの分野でテスラ社と競争する決意を持っているようだ。新しいビデオが公開されてから、わずか 10 時間ですでに 100 万人以上が視聴しました。古い人が去り、新しい役割が現れるのは歴史的な必然です。今年が人型ロボットの爆発的な年であることは間違いありません。ネットユーザーは「ロボットの進歩により、今年の開会式は人間のように見え、人間よりもはるかに自由度が高い。しかし、これは本当にホラー映画ではないのか?」とコメントした。ビデオの冒頭では、アトラスは仰向けに見えるように地面に静かに横たわっています。次に続くのは驚くべきことです

iPhone のモバイル データ接続に遅延や遅い問題が発生していませんか?通常、携帯電話の携帯インターネットの強度は、地域、携帯ネットワークの種類、ローミングの種類などのいくつかの要因によって異なります。より高速で信頼性の高いセルラー インターネット接続を実現するためにできることがいくつかあります。解決策 1 – iPhone を強制的に再起動する 場合によっては、デバイスを強制的に再起動すると、携帯電話接続を含む多くの機能がリセットされるだけです。ステップ 1 – 音量を上げるキーを 1 回押して放します。次に、音量小キーを押して、もう一度放します。ステップ 2 – プロセスの次の部分は、右側のボタンを押し続けることです。 iPhone の再起動が完了するまで待ちます。セルラーデータを有効にし、ネットワーク速度を確認します。もう一度確認してください 修正 2 – データ モードを変更する 5G はより優れたネットワーク速度を提供しますが、信号が弱い場合はより適切に機能します

今月初め、MIT やその他の機関の研究者らは、MLP に代わる非常に有望な代替案である KAN を提案しました。 KAN は、精度と解釈可能性の点で MLP よりも優れています。また、非常に少数のパラメーターを使用して、多数のパラメーターを使用して実行する MLP よりも優れたパフォーマンスを発揮できます。たとえば、著者らは、KAN を使用して、より小規模なネットワークと高度な自動化で DeepMind の結果を再現したと述べています。具体的には、DeepMind の MLP には約 300,000 個のパラメーターがありますが、KAN には約 200 個のパラメーターしかありません。 KAN は、MLP が普遍近似定理に基づいているのに対し、KAN はコルモゴロフ-アーノルド表現定理に基づいているのと同様に、強力な数学的基礎を持っています。以下の図に示すように、KAN は

世界は狂ったように大きなモデルを構築していますが、インターネット上のデータだけではまったく不十分です。このトレーニング モデルは「ハンガー ゲーム」のようであり、世界中の AI 研究者は、データを貪欲に食べる人たちにどのように餌を与えるかを心配しています。この問題は、マルチモーダル タスクで特に顕著です。何もできなかった当時、中国人民大学学部のスタートアップチームは、独自の新しいモデルを使用して、中国で初めて「モデル生成データフィード自体」を実現しました。さらに、これは理解側と生成側の 2 つの側面からのアプローチであり、両方の側で高品質のマルチモーダルな新しいデータを生成し、モデル自体にデータのフィードバックを提供できます。モデルとは何ですか? Awaker 1.0 は、中関村フォーラムに登場したばかりの大型マルチモーダル モデルです。チームは誰ですか?ソフォンエンジン。人民大学ヒルハウス人工知能大学院の博士課程学生、ガオ・イージャオ氏によって設立されました。

テスラのロボット「オプティマス」の最新映像が公開され、すでに工場内で稼働可能となっている。通常の速度では、バッテリー(テスラの4680バッテリー)を次のように分類します:公式は、20倍の速度でどのように見えるかも公開しました - 小さな「ワークステーション」上で、ピッキング、ピッキング、ピッキング:今回は、それがリリースされたハイライトの1つビデオの内容は、オプティマスが工場内でこの作業を完全に自律的に行い、プロセス全体を通じて人間の介入なしに完了するというものです。そして、オプティマスの観点から見ると、自動エラー修正に重点を置いて、曲がったバッテリーを拾い上げたり配置したりすることもできます。オプティマスのハンドについては、NVIDIA の科学者ジム ファン氏が高く評価しました。オプティマスのハンドは、世界の 5 本指ロボットの 1 つです。最も器用。その手は触覚だけではありません
