AI能够生成视频,已经发展到了这个阶段了?!
对着一张照片随手一刷,就能让被选中的目标动起来!
明明是一辆静止的卡车,但一经刷过,它立刻飞速启动,连光影都完美地再现
这张照片本来只是一张火灾照片,但现在只需随手一刷,火焰就能冲天而起,热度扑面而来
如果继续这样下去,就很难区分照片和实拍视频了!
这是Runway为AI视频软件Gen-2打造的全新功能,通过一涂一刷的操作,可以使图像中的物体动起来,其逼真程度不亚于神笔马良
虽然只是个功能预热,不过效果一出就在网上爆火:
看得网友一个个变身急急国王,直呼“等不及想要尝试一波”:
Runway同时也发布了更多功能预热效果,我们一起来看看吧
这个Runway新出的功能,叫做运动笔刷(Motion Brush)。
顾名思义,只需要用这个笔刷对着画面中的任意对象“涂”一下,就能让他们动起来。
不仅可以是静止的人,连裙摆和头部的动作都表现得非常自然
还可以是流动的液体如瀑布,连雾气都能还原:
或者是一根还没熄灭的烟:
一团正在众人面前燃烧的篝火:
更大块的背景也能做成动态的,甚至改变画面的光影效果,例如正在飞速移动的乌云:
当然,以上所述只是Runway的明确声明,他们主动告诉你他们对照片进行了某些处理
下面这些没有涂抹痕迹的视频,更是几乎完全看不出有AI修饰的成分在里面:
一连串效果炸出,也导致功能还没正式放出来,网友已经迫不及待了。
有很多人试图弄清楚这个功能是如何实现的。还有一些网友更关注这个功能什么时候发布,希望能直接在321上找到链接(手动狗头)
可以期待一下了,确实有不少好消息
除此之外,Runway还推出了其他新功能
最近一连串的AI生成进展似乎都在表明,视频生成领域似乎真要迎来技术大爆发了。
在这几天内,有一些网友发现了文生动画软件Animatediff的一种新的热门玩法
只需要结合最新的研究LCM-LORA,生成16帧的动画视频只需要7秒钟的时间。
LCM-LORA是华大和Hugging Face最新推出的AI图片生成技术,能够显着提高Stable Diffusion的图片生成速度
其中,LCM(Latent Consistency Models)是基于今年早些时候OpenAI的“一致性模型”提出来的一种图像生成新方法,能快速生成768×768的高分辨率图片。
但LCM不兼容现有模型,因此清华和抱抱脸的成员又新出了一版LCM-LORA模型,可以兼容所有Stable Diffusion模型,加速出图速度。
结合Animatediff软件,生成一个这样的动画只需要7秒钟左右:
目前LCM-LORA已经在抱抱脸上开源。
你感觉最近的AI视频生成进展如何,距离可用上还有多远?
参考链接:
[1]https://twitter.com/runwayml/status/1723033256067489937。
[2]https://twitter.com/op7418/status/1723016460220735748。
以上是图像涂哪就动哪!Gen-2新功能'神笔马良”爆火,网友:急急急的详细内容。更多信息请关注PHP中文网其他相关文章!