Google は新しいビデオ フレームワークをリリースしました:
あなたの顔の写真とスピーチの録音だけがあれば、本物のようなスピーチのビデオを取得できます。
ビデオの長さは可変で、現在の例では最大 10 秒です。
口の形にしても表情にしても、とても自然であることがわかります。
入力画像が上半身全体をカバーしている場合、リッチジェスチャと一致させることもできます:
それを読んだネチズンは次のように言いました:
はい。これにより、将来的にはオンラインビデオ会議のために髪を整えたり、着替えたりする必要がなくなりました。
まあ、ポートレートを撮って音声音声を録音するだけです (手動の犬の頭)
あなたの声を使ってポートレートを制御し、ビデオを生成します
このフレームワークは VLOGGER と呼ばれます。
これは主に拡散モデルに基づいており、2 つの部分で構成されています。
1 つはランダムな人間から 3D モーションへの拡散モデルです。
もう 1 つは、テキストから画像へのモデルを強化するための新しい拡散アーキテクチャです。
このうち、前者はオーディオ波形を入力として使用して、目、表情やジェスチャー、全体的な身体の姿勢などを含むキャラクターの身体制御アクションを生成します。
後者は、大規模な画像拡散モデルを拡張し、予測されたアクションを使用して対応するフレームを生成するために使用される時間次元の画像間モデルです。
結果を特定のキャラクター画像に適合させるために、VLOGGER はパラメータ画像のポーズ マップも入力として受け取ります。
VLOGGER のトレーニングは、非常に大規模なデータセット (MENTOR という名前) 上で完了します。 ######それはどれくらい大きいですか?長さは 2,200 時間で、合計 800,000 文字のビデオが含まれています。
その中で、テスト セットのビデオの長さも 120 時間、合計 4,000 文字です。
Google によると、VLOGGER の最も優れたパフォーマンスはその多様性にあります。
下の図に示すように、最終的なピクセル画像の色が濃い (赤) ほど、アクションが豊富になります。 。
業界のこれまでの同様の手法と比較した場合、VLOGGER の最大の利点は、全員をトレーニングする必要がなく、顔検出やトリミングに依存しないことです。生成されたビデオは完成しています (顔と唇の両方、体の動きなどを含む)。
具体的には、次の表に示すように:
顔の再現方法では、オーディオやテキストを使用してビデオ生成を制御することはできません。
Audio-to-motion では、音声を 3D の顔の動きにエンコードすることで音声を生成できますが、生成される効果は十分に現実的ではありません。
リップシンクはさまざまなテーマのビデオを処理できますが、シミュレートできるのは口の動きだけです。
比較すると、後者の 2 つの方法、SadTaker と Styletalk は Google VLOGGER に最も近いパフォーマンスを示しますが、本体を制御したりビデオをさらに編集したりできないという点でも劣っています。
ビデオ編集と言えば、下図にあるように、キャラクターを黙らせたり、目を閉じたり、左目だけ閉じたり、片方の目だけ開けたりすることができるのがVLOGGERモデルの応用例です。クリック:
もう 1 つのアプリケーションはビデオ翻訳です:
たとえば、元のビデオの英語の音声を同じ口の形でスペイン語に変更します。
ネチズンは苦情を申し立てました
最終的に、「古いルール」に従って、Googleはモデルをリリースせず、現在確認できるのはより多くの効果と論文だけです。
そうですね、多くの不満があります:
モデルの画質、口の形が正しくない、依然としてロボットのように見えるなど。
したがって、否定的なレビューをためらわずに残す人もいます:
これが Google のレベルですか?
「VLOGGER」という名前がちょっと残念です。
——OpenAI の Sora と比較すると、このネチズンの発言は確かに不合理ではありません。 。 ######どう思いますか?
その他のエフェクト:
https://enriccorona.github.io/vlogger/
全文:
https://enriccorona.github 。 io/vlogger/paper.pdf
以上がGoogleが「Vlogger」モデルをリリース:1枚の写真から10秒の動画が生成されるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。