网友:我都不敢想象一年后的视频技术会有多先进。
五十秒的预告视频再次引发了AI圈的热议
昨天,Runway宣布即将在视频生成工具Gen-2中推出"Motion Brush"(运动笔刷)功能,这是一种全新的方法,可以控制生成内容的移动
这次的玩法,甚至不需要输入文字,只要有手就够了。
从给定的图片中任选一张,只要用画笔涂抹到某个地方,那个地方就会立刻动起来
无论是水流、云彩、火焰、烟雾还是人物,都能高度还原其动态。这难道就是传说中的「点石成金」吗?
网友看完表示:我都不敢想象一年后的视频技术会有多先进……
在2023年初,从文本生成视频依然是一项相当困难的任务
Runway 曾在今年 2 月推出了 Gen-1,功能非常丰富,包括风格化、故事版、蒙版、渲染、自定义等等。看起来,这是一个专注于「编辑」视频的工具。
但今年 3 月,Gen-2 的面世改变了一切,它新增了文字、图片生成视频功能。用户仅需输入文字、图像或文字加图像的描述,Gen-2 即可在很短的时间内生成相关视频。
这是市场上首款可供公众使用的文本转视频模型。例如,当输入一段纯文字「午后的阳光透过纽约阁楼的窗户照进来」时,Gen-2会直接生成相应的视频
通过使用几个提示和手势,我们现在能够生成高质量的视频并进行进一步编辑,不再需要复杂的视频编辑软件和冗长的制作流程
如果将Midjourney和Gen-2这两款文生图神器和文生视频神器结合起来使用,用户完全可以不用动笔,就能够直接创作出大片作品
当然,Gen-2 也有竞争对手,其中之一是 Pika Labs,而且后者还是免费的
由 Pika Labs 生成的是上述画面
对于这种疯狂卷的态势,一部分用户是非常期待的:「2024 年,Pika Labs 和 Runway 之间的拉扯一定很有意思。」
传闻中,OpenAI 也有视频生成相关的技术。有网友表示:「这让我不禁好奇,OpenAI 的 any-to-any 模型在生成视频方面究竟有多出色,因为这家公司通常都走在别人前面。」
未来的视频和电影制作行业,会因此而颠覆吗?
以上是Runway的新特性「动态笔刷」再次震撼AI界:轻轻一画,图片即刻活动起来的详细内容。更多信息请关注PHP中文网其他相关文章!