目次
多くの研究を精査することで、著者はビデオの中核的な目標を発見しました。編集タスク それは次の実現にあります:
ホームページ テクノロジー周辺機器 AI AIGC時代のビデオ普及モデル、Fudanらチームが現場初レビューを公開

AIGC時代のビデオ普及モデル、Fudanらチームが現場初レビューを公開

Oct 23, 2023 pm 02:13 PM
モデル 電車

AI 生成コンテンツは、現在の人工知能分野で最も注目されているトピックの 1 つであり、この分野の最先端テクノロジーを表しています。近年、Stable Diffusion、DALL-E3、ControlNetなどの新技術のリリースにより、AI画像の生成・編集分野は驚異的な視覚効果を実現し、学界と産業界の両方で幅広い注目と議論を集めています。これらの手法のほとんどは拡散モデルに基づいており、これが強力な制御可能な生成、フォトリアリスティックな生成、多様性を実現する能力の鍵となります。

ただし、単純な静止画像と比較して、ビデオにはより豊富な意味情報と動的な変化が含まれます。ビデオは物理オブジェクトの動的な進化を示すことができるため、ビデオの生成と編集の分野におけるニーズと課題はより複雑です。この分野では、注釈付きデータとコンピューティングリソースの制限により、ビデオ生成の研究は困難に直面していますが、Make-A-Video、Imagen Video、Gen-2 手法などのいくつかの代表的な研究作業はすでに開始されています。支配的な地位を超えて。

これらの研究成果は、ビデオ生成および編集技術の開発方向を導きます。調査データによると、2022 年以降、ビデオ タスクの普及モデルに関する研究作業が爆発的な増加を示しています。この傾向は、学界や産業界におけるビデオ普及モデルの人気を反映しているだけでなく、この分野の研究者がビデオ生成技術の画期的な進歩と革新を続けることが緊急に必要であることも浮き彫りにしています。

AIGC時代のビデオ普及モデル、Fudanらチームが現場初レビューを公開


最近、復旦大学のビジョンと学習研究室は、マイクロソフトやファーウェイなどの学術機関と共同で、最初のリリース ビデオ タスクにおける拡散モデルの作業に関するこのレビューでは、ビデオ生成、ビデオ編集、およびビデオ理解における拡散モデルの学術的な最先端の結果が体系的にまとめられています。

AIGC時代のビデオ普及モデル、Fudanらチームが現場初レビューを公開

  • 論文リンク: https://arxiv.org/abs/2310.10647
  • ホームページのリンク: https://github.com/ChenHsing/Awesome-Video-Diffusion-Models

ビデオ生成

AIGC時代のビデオ普及モデル、Fudanらチームが現場初レビューを公開

テキストベースのビデオ生成: 自然言語を入力として使用したビデオ生成が、ビデオ生成分野の重要なタスクの 1 つです。著者はまず、普及モデルが提案される前のこの分野の研究結果をレビューし、次にトレーニングベースとトレーニングフリーのテキストビデオ生成モデルをそれぞれ紹介します。

AIGC時代のビデオ普及モデル、Fudanらチームが現場初レビューを公開

#クリスマス ツリーの休日のお祝いの冬の雪のアニメーション。

他の条件に基づくビデオ生成: 細分化された分野でのビデオ生成作業。著者は、ポーズ(ポーズガイド付き)、アクション(モーションガイド付き)、サウンド(サウンドガイド付き)、イメージ(画像ガイド付き)、深度マップ(深度ガイド付き)などの条件に基づいて分類しています。

AIGC時代のビデオ普及モデル、Fudanらチームが現場初レビューを公開


AIGC時代のビデオ普及モデル、Fudanらチームが現場初レビューを公開#無条件ビデオ生成:

このタスクは、特定のフィールドでの入力条件なしのビデオ生成を指します。著者は、モデル アーキテクチャを主に U-Net ベースの生成モデルと Transformer ベースの生成モデルに分けます。 ビデオ完成:

主にビデオの強化と復元、ビデオ予測などのタスクが含まれます。 #データ セット:

#ビデオ生成タスクで使用されるデータ セットは、次の 2 つのカテゴリに分類できます。

1.キャプション レベル: 各ビデオには対応するテキスト説明情報があり、最も代表的なものは WebVid10M データ セットです。

2.カテゴリ レベル: ビデオには分類ラベルのみがあり、テキストの説明情報はありません。UCF-101 は現在、ビデオ生成やビデオ予測などのタスクに最も一般的に使用されるデータ セットです。

評価指標と結果の比較: 動画による評価指標は、主に品質レベルの評価指標と定量レベルの評価指標に分けられます。品質レベルの評価指標は主に手動による主観的なスコアリングに基づいていますが、定量レベルの評価指標は次のように分類できます。レベル: ビデオは一連の画像フレームで構成されているため、画像レベルの評価方法は基本的に T2I モデルの評価指標を参照します。

2. ビデオレベルの評価指標: フレームごとの測定に偏った画像レベルの評価指標と比較して、ビデオレベルの評価指標は時間的コヒーレンスを測定できます。生成されたビデオなどの側面。

さらに、筆者は、ベンチマークデータセットにおける上記生成モデルの評価指標の水平比較も行った。

ビデオ編集AIGC時代のビデオ普及モデル、Fudanらチームが現場初レビューを公開

多くの研究を精査することで、著者はビデオの中核的な目標を発見しました。編集タスク それは次の実現にあります:

1. 忠実度: 編集されたビデオの対応するフレームは、元のビデオと内容が一致している必要があります。

2. 調整: 編集されたビデオを入力条件に合わせる必要があります。

3. 高品質: 編集されたビデオは一貫性があり、高品質である必要があります。

#テキスト ベースのビデオ編集: 既存のテキスト ビデオ データの規模が限られていることを考慮すると、テキスト ベースのビデオ編集タスクのほとんどは現在、 -トレーニングされた T2I モデルは、ビデオ フレームの一貫性や意味上の不一致などの問題を解決するために使用されます。著者は、こうしたタスクをさらにトレーニングベース、トレーニング不要、ワンショットチューニングの手法に細分化し、それぞれまとめています。

AIGC時代のビデオ普及モデル、Fudanらチームが現場初レビューを公開

AIGC時代のビデオ普及モデル、Fudanらチームが現場初レビューを公開


# その他の条件に基づくビデオ編集: 大規模なモデルの場合昨今、自然言語情報に基づいた最も直接的なビデオ編集に加え、指示、音声、アクション、マルチモダリティなどに基づいたビデオ編集がますます注目されており、著者もこれに対応する仕事を行っている。そして仕分け。

AIGC時代のビデオ普及モデル、Fudanらチームが現場初レビューを公開

特定のニッチ分野でのビデオ編集: 一部の研究では、ビデオのカラーリングなど、特定の分野でのビデオ編集タスクの特別なカスタマイズの必要性に焦点を当てています。ポートレートビデオ編集など。

AIGC時代のビデオ普及モデル、Fudanらチームが現場初レビューを公開

ビデオの理解

ビデオ分野における普及モデルの応用は、従来のビデオ生成をはるかに超えています。編集タスクだけでなく、ビデオ理解タスクにも大きな可能性を示します。著者は、最先端の論文を追跡することにより、ビデオ時間セグメンテーション、ビデオ異常検出、ビデオオブジェクトセグメンテーション、テキストビデオ検索、アクション認識などの 10 の既存のアプリケーションシナリオをまとめました。

AIGC時代のビデオ普及モデル、Fudanらチームが現場初レビューを公開

今後と要約

このレビューは、ビデオ タスクに関する AIGC 時代の普及モデルに関する最新の研究を包括的かつ細心の注意を払って要約しています。オブジェクトと技術的特徴に基づいて、100 を超える最先端の作品が分類および要約され、これらのモデルがいくつかの古典的なベンチマークで比較されます。さらに、普及モデルには、次のようなビデオ タスクの分野におけるいくつかの新しい研究の方向性と課題もあります:

1. 大規模なテキストビデオ データ セットの収集: 成功したT2I モデルの分離 T2V モデルは、何億もの高品質テキスト画像データ セットを開くことなく、サポートとして透かしのない高解像度のテキストビデオ データを大量に必要とします。

2. 効率的なトレーニングと推論: ビデオ データは画像データに比べて膨大であり、トレーニングと推論の段階で必要な計算能力も飛躍的に増加しています。効率的なトレーニングと推論アルゴリズムにより、コストを大幅に削減できます。

3. 信頼できるベンチマークと評価指標: ビデオ分野における既存の評価指標は、生成されたビデオと元のビデオの間の分布の違いを測定することがよくありますが、分布を完全に測定することはできません。生成されたビデオの品質。一方、ユーザーテストは依然として重要な評価手法の一つですが、多大な労力と主観的な要素を要することから、より客観的かつ総合的な評価指標の確立が急務となっています。

以上がAIGC時代のビデオ普及モデル、Fudanらチームが現場初レビューを公開の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

オープンソース!ゾーイデプスを超えて! DepthFM: 高速かつ正確な単眼深度推定! オープンソース!ゾーイデプスを超えて! DepthFM: 高速かつ正確な単眼深度推定! Apr 03, 2024 pm 12:04 PM

0.この記事は何をするのですか?私たちは、多用途かつ高速な最先端の生成単眼深度推定モデルである DepthFM を提案します。従来の深度推定タスクに加えて、DepthFM は深度修復などの下流タスクでも最先端の機能を実証します。 DepthFM は効率的で、いくつかの推論ステップ内で深度マップを合成できます。この作品について一緒に読みましょう〜 1. 論文情報タイトル: DepthFM: FastMonocularDepthEstimationwithFlowMatching 著者: MingGui、JohannesS.Fischer、UlrichPrestel、PingchuanMa、Dmytr

世界で最も強力なオープンソース MoE モデルが登場。GPT-4 に匹敵する中国語機能を備え、価格は GPT-4-Turbo のわずか 1% 近くです 世界で最も強力なオープンソース MoE モデルが登場。GPT-4 に匹敵する中国語機能を備え、価格は GPT-4-Turbo のわずか 1% 近くです May 07, 2024 pm 04:13 PM

従来のコンピューティングを超える能力を備えているだけでなく、より低コストでより効率的なパフォーマンスを実現する人工知能モデルを想像してみてください。これは SF ではありません。世界で最も強力なオープンソース MoE モデルである DeepSeek-V2[1] が登場しました。 DeepSeek-V2 は、経済的なトレーニングと効率的な推論の特徴を備えた強力な専門家混合 (MoE) 言語モデルです。これは 236B のパラメータで構成されており、そのうち 21B は各マーカーをアクティブにするために使用されます。 DeepSeek67B と比較して、DeepSeek-V2 はパフォーマンスが優れていると同時に、トレーニング コストを 42.5% 節約し、KV キャッシュを 93.3% 削減し、最大生成スループットを 5.76 倍に高めます。 DeepSeek は一般的な人工知能を研究する会社です

AI が数学研究を破壊する!フィールズ賞受賞者で中国系アメリカ人の数学者が上位 11 件の論文を主導 | テレンス・タオが「いいね!」しました AI が数学研究を破壊する!フィールズ賞受賞者で中国系アメリカ人の数学者が上位 11 件の論文を主導 | テレンス・タオが「いいね!」しました Apr 09, 2024 am 11:52 AM

AI は確かに数学を変えつつあります。最近、この問題に細心の注意を払っている陶哲軒氏が『米国数学協会会報』(米国数学協会会報)の最新号を送ってくれた。 「機械は数学を変えるのか?」というテーマを中心に、多くの数学者が意見を述べ、そのプロセス全体は火花に満ち、ハードコアで刺激的でした。著者には、フィールズ賞受賞者のアクシャイ・ベンカテシュ氏、中国の数学者鄭楽軍氏、ニューヨーク大学のコンピューター科学者アーネスト・デイビス氏、その他業界で著名な学者を含む強力な顔ぶれが揃っている。 AI の世界は劇的に変化しています。これらの記事の多くは 1 年前に投稿されたものです。

こんにちは、電気アトラスです!ボストン・ダイナミクスのロボットが復活、180度の奇妙な動きにマスク氏も恐怖 こんにちは、電気アトラスです!ボストン・ダイナミクスのロボットが復活、180度の奇妙な動きにマスク氏も恐怖 Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas は正式に電動ロボットの時代に突入します!昨日、油圧式アトラスが歴史の舞台から「涙ながらに」撤退したばかりですが、今日、ボストン・ダイナミクスは電動式アトラスが稼働することを発表しました。ボストン・ダイナミクス社は商用人型ロボットの分野でテスラ社と競争する決意を持っているようだ。新しいビデオが公開されてから、わずか 10 時間ですでに 100 万人以上が視聴しました。古い人が去り、新しい役割が現れるのは歴史的な必然です。今年が人型ロボットの爆発的な年であることは間違いありません。ネットユーザーは「ロボットの進歩により、今年の開会式は人間のように見え、人間よりもはるかに自由度が高い。しかし、これは本当にホラー映画ではないのか?」とコメントした。ビデオの冒頭では、アトラスは仰向けに見えるように地面に静かに横たわっています。次に続くのは驚くべきことです

MLP に代わる KAN は、オープンソース プロジェクトによって畳み込みまで拡張されました MLP に代わる KAN は、オープンソース プロジェクトによって畳み込みまで拡張されました Jun 01, 2024 pm 10:03 PM

今月初め、MIT やその他の機関の研究者らは、MLP に代わる非常に有望な代替案である KAN を提案しました。 KAN は、精度と解釈可能性の点で MLP よりも優れています。また、非常に少数のパラメーターを使用して、多数のパラメーターを使用して実行する MLP よりも優れたパフォーマンスを発揮できます。たとえば、著者らは、KAN を使用して、より小規模なネットワークと高度な自動化で DeepMind の結果を再現したと述べています。具体的には、DeepMind の MLP には約 300,000 個のパラメーターがありますが、KAN には約 200 個のパラメーターしかありません。 KAN は、MLP が普遍近似定理に基づいているのに対し、KAN はコルモゴロフ-アーノルド表現定理に基づいているのと同様に、強力な数学的基礎を持っています。以下の図に示すように、KAN は

Kuaishou バージョンの Sora「Ke Ling」がテスト用に公開されています。120 秒以上のビデオを生成し、物理学をより深く理解し、複雑な動きを正確にモデル化できます。 Kuaishou バージョンの Sora「Ke Ling」がテスト用に公開されています。120 秒以上のビデオを生成し、物理学をより深く理解し、複雑な動きを正確にモデル化できます。 Jun 11, 2024 am 09:51 AM

何?ズートピアは国産AIによって実現するのか?ビデオとともに公開されたのは、「Keling」と呼ばれる新しい大規模な国産ビデオ生成モデルです。 Sora も同様の技術的ルートを使用し、自社開発の技術革新を多数組み合わせて、大きく合理的な動きをするだけでなく、物理世界の特性をシミュレートし、強力な概念的結合能力と想像力を備えたビデオを制作します。データによると、Keling は、最大 1080p の解像度で 30fps で最大 2 分の超長時間ビデオの生成をサポートし、複数のアスペクト比をサポートします。もう 1 つの重要な点は、Keling は研究所が公開したデモやビデオ結果のデモンストレーションではなく、ショートビデオ分野のリーダーである Kuaishou が立ち上げた製品レベルのアプリケーションであるということです。さらに、主な焦点は実用的であり、白紙小切手を書かず、リリースされたらすぐにオンラインに移行することです。Ke Ling の大型モデルは Kuaiying でリリースされました。

超知性の生命力が覚醒する!しかし、自己更新 AI の登場により、母親はデータのボトルネックを心配する必要がなくなりました。 超知性の生命力が覚醒する!しかし、自己更新 AI の登場により、母親はデータのボトルネックを心配する必要がなくなりました。 Apr 29, 2024 pm 06:55 PM

世界は狂ったように大きなモデルを構築していますが、インターネット上のデータだけではまったく不十分です。このトレーニング モデルは「ハンガー ゲーム」のようであり、世界中の AI 研究者は、データを貪欲に食べる人たちにどのように餌を与えるかを心配しています。この問題は、マルチモーダル タスクで特に顕著です。何もできなかった当時、中国人民大学学部のスタートアップチームは、独自の新しいモデルを使用して、中国で初めて「モデル生成データフィード自体」を実現しました。さらに、これは理解側と生成側の 2 つの側面からのアプローチであり、両方の側で高品質のマルチモーダルな新しいデータを生成し、モデル自体にデータのフィードバックを提供できます。モデルとは何ですか? Awaker 1.0 は、中関村フォーラムに登場したばかりの大型マルチモーダル モデルです。チームは誰ですか?ソフォンエンジン。人民大学ヒルハウス人工知能大学院の博士課程学生、ガオ・イージャオ氏によって設立されました。

アメリカ空軍が初のAI戦闘機を公開し注目を集める!大臣はプロセス全体を通じて干渉することなく個人的にテストを実施し、10万行のコードが21回にわたってテストされました。 アメリカ空軍が初のAI戦闘機を公開し注目を集める!大臣はプロセス全体を通じて干渉することなく個人的にテストを実施し、10万行のコードが21回にわたってテストされました。 May 07, 2024 pm 05:00 PM

最近、軍事界は、米軍戦闘機が AI を使用して完全自動空戦を完了できるようになったというニュースに圧倒されました。そう、つい最近、米軍のAI戦闘機が初めて公開され、その謎が明らかになりました。この戦闘機の正式名称は可変安定性飛行シミュレーター試験機(VISTA)で、アメリカ空軍長官が自ら飛行させ、一対一の空戦をシミュレートした。 5 月 2 日、フランク ケンダル米国空軍長官は X-62AVISTA でエドワーズ空軍基地を離陸しました。1 時間の飛行中、すべての飛行動作が AI によって自律的に完了されたことに注目してください。ケンダル氏は「過去数十年にわたり、私たちは自律型空対空戦闘の無限の可能性について考えてきたが、それは常に手の届かないものだと思われてきた」と語った。しかし今では、

See all articles