ネチズン: 1 年後にビデオ技術がどれほど進歩しているか想像することさえできません。
50 秒目のプレビュー ビデオが再び AI サークルで熱い議論を巻き起こしました
昨日、Runway は「Motion Brush」(モーション ペン) を間もなく発売すると発表しました。ビデオ生成ツール Gen-2 Brush) 機能。これは、生成されたコンテンツの動きを制御できるまったく新しい方法です。
今回は、その必要さえありません。テキストを入力するだけで十分です。
指定された画像のいずれかを選択し、特定の場所にブラシを適用するだけで、その場所がすぐに移動します
水流、雲、炎、煙、キャラクターなど、そのダイナミクスを高度に復元できます。これが伝説の「石を金に変えるミダス」なのか?
# これを読んだネチズンはこう言いました: 1 年後にビデオ技術がどれほど進歩しているか想像することさえできません…#2023 年の初めの時点でも、テキストからビデオを生成するのは依然として非常に難しい作業です。Runway は今年 2 月に Gen-1 を開始しました。これには、スタイル設定、ストーリーボード、マスキング、レンダリング、カスタマイズなど。動画の「編集」に重点を置いたツールのようです。 しかし、今年 3 月、Gen-2 の登場によりすべてが変わり、テキストと写真からビデオを生成する機能が追加されました。ユーザーはテキスト、画像、またはテキストと画像の説明を入力するだけで、Gen-2 はわずかな時間で関連ビデオを生成できます。 これは、市場で一般に使用できる最初のテキストからビデオへのモデルです。たとえば、「ニューヨークのロフトの窓から午後の日差しが差し込む」というプレーン テキストを入力すると、Gen-2 は対応するビデオ を直接生成します。いくつかのプロンプトとジェスチャーを使用することで、複雑なビデオ編集ソフトウェアや長時間にわたる制作プロセスを必要とせずに、高品質のビデオを生成し、さらなる編集を実行できるようになりました。Midjourney と Gen-2 を When と組み合わせると、 Vincent のビデオ アーティファクトと併用すると、ユーザーはペンを使わずに大ヒット作品を直接作成できます。もちろん、Gen-2 にも競合他社があり、そのうちの 1 つは Pika Labs で、後者は無料です。
上の画像は Pika Labs によって生成されました
このクレイジーなスクロール状況に対して、一部のユーザーは次のことを非常に楽しみにしています。「2024 年」 、Pika Labs と Runway の間の引き合いは興味深いでしょう。」
噂によると、OpenAI にはビデオ生成に関する技術もあるそうです。一部のネチズンは、「OpenAI の any-to-any モデルが動画生成においてどれだけ優れているのか疑問に思います。なぜなら、この会社は通常、他社よりも先を行っているからです。」
将来のビデオおよび映画制作業界はこれによって覆されるでしょうか?
以上がRunway の新機能「ダイナミック ブラシ」は、AI 界に再び衝撃を与えました。軽くペイントするだけで、すぐに絵が生き生きと動き出します。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。