###見て!今、あなたの目の前では 4 人の若い女性が熱いダンスを披露しています。
画像
にのみ依存しています。
実際の開始方法は次のとおりです:
これはシンガポール国立大学と ByteDance からの最新情報ですMagicAnimate
その機能は、違反の意味を持たずに、単純な式で要約できます: 写真
とアクション のセット = ビデオ . .
このテクノロジーの発表により、テクノロジー界は大騒ぎになり、多くのテクノロジー巨人やオタクが次々と参加しました
HuggingFace CTO
彼らは全員、自分のアバターでそれを試しました:
ちなみに、彼らはユーモラスな方法でジョークも言いました:
これはフィットネスとみなされますか?今週はジムを休んでもいいです。
新しくリリースされた
GTA6
(グランド セフト オート 6) のトレーラーのキャラクターで遊んでいる、時代に敏感なネチズンもいます。 一握り:
絵文字さえもネチズンの選択の対象になっています...
# #MagicAnimateテクノロジー界の注目をそれ自体に集中させたと言えるので、一部のネチズンは「
OpenAI は休んでもいい」と冗談を言いました。
#火事、本当に火事。
#操作は非常に簡単で、必要な手順は 3 つのステップだけです:
ページの下部にあるテンプレートを選択して体験することもできます:
......
(その通りです!記事執筆時点では、まだ結果を待っていません!)
さらに、MagicAnimate は GitHub でローカル体験メソッドも提供しています。興味のある友人はぜひ試してみてください~## #どうやってするの?
(拡散) に基づくフレームワークを採用しています。その目的は、時間的一貫性を強化し、参照画像の信頼性を維持することです。アニメーションの忠実度。
この目的を達成するために、チームはまず、時間情報をエンコードするための
(時間的一貫性モデリング) を開発しました。 このモデルは、アニメーション内のフレーム間の時間的一貫性を確保するために、時間的注意モジュールを拡散ネットワークに追加することによって時間的情報をエンコードします。
第 2 に、フレーム間の外観の一貫性を維持するために、チームは新しい
Appearance Encoder(Appearance Encoder) を導入し、参照画像の複雑な詳細を保存しました。 このエンコーダは、CLIP エンコーディングを使用する以前の方法とは異なります。アニメーション制作をガイドするためにより高密度の視覚的特徴を抽出できるため、アイデンティティ、背景、服装などの情報をより適切に保存できます。
Basedこれら 2 つの革新的なテクノロジーに加えて、チームはさらに、長いビデオ アニメーションのスムーズな移行を促進するために、シンプルなビデオ フュージョン テクノロジー
(ビデオ フュージョン テクニック)を採用しました。 最後に、2 つのベンチマーク実験による検証の結果、MagicAnimate が以前の方法よりもはるかに効果的であることが結果からわかりました。
特に困難な TikTok ダンス データセットでは、MagicAnimate はビデオ保存において優れたパフォーマンスを発揮します。精度は最も強力なベースラインよりも 38% 以上高くなっています。
以下はチームによる定性的な比較です:
そして、クロス ID の最先端のベースライン モデルと比較すると、結果は次のとおりです:
MagicAnimate のようなプロジェクトは最近非常に人気があると言わざるを得ません
いいえ、その「デビュー」後は少し前です、Ali チームは、AnimateEveryone というプロジェクトもリリースしました。これも「画像」と「必要なアクション」のみが必要です:
その結果、一部のネチズンも疑問を提起しました:
論文を表示するには、次のリンクをクリックしてください: https://arxiv.org/abs/2311.16498これは MagicAnimate と AnimateAnyone の間の戦争のようです。 誰が優れていますか? #####################どう思いますか?
以上がDouyin ダンスでは、実際の人間がカメラに映る必要はなく、写真だけで高品質のビデオを生成できます。偉そうなCTOもByteの新技術を体験しているの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。