ホームページ > テクノロジー周辺機器 > AI > MITが悪意のあるAI編集から画像を守る「PhotoGuard」技術を開発

MITが悪意のあるAI編集から画像を守る「PhotoGuard」技術を開発

王林
リリース: 2023-08-03 16:44:11
転載
940 人が閲覧しました

MITが悪意のあるAI編集から画像を守る「PhotoGuard」技術を開発

AIを活用したディープフェイク技術が進化するにつれ、「どのコンテンツがAIによって偽造されたものか」を人間が肉眼で判断することがますます困難になってきています。クローラーによる画像の改変を防ぐために、MIT は最近、画像を処理して AI による認識や改ざんを困難にする Photoguard と呼ばれるテクノロジーを発表しました。

この「PhotoGuard」技術は主に、画像にわずかな変更を加えることでAIが画像内容を認識するのを防ぐことが報告されています

。この技術は、AI による画像の改ざんを防ぐ 2 つのソリューションを提供します。1 つは、画像のピクセルを変更することでアルゴリズム モデルの画像理解能力を妨げる「エンコーダー」方式で、もう 1 つは、AI による画像の改ざんを防ぐ「拡散」方式です。 AIに写真Aは写真Bだと思い込ませ、間違った画像を生成します。 MITが悪意のあるAI編集から画像を守る「PhotoGuard」技術を開発

しかし、IT House は問い合わせの結果、このテクノロジーの適用範囲が実際には限られていることが分かりました。

研究者らは、PhotoGuard テクノロジーはクローラ対策のシナリオにより適していると警告しました。テクノロジー自体にも一定の制限があります。攻撃者この技術は、処理された画像をトリミングまたは反転することによってのみ解読できます。 研究者らは、AI詐欺の問題を解決するには、技術的手段に加えて、モデル開発者、ソーシャルメディアプラットフォーム、関連部門が協力して包括的な「AI詐欺対策」ソリューションを提供する必要があると指摘しました

以上がMITが悪意のあるAI編集から画像を守る「PhotoGuard」技術を開発の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
AI ai
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート