AI能夠產生視頻,已經發展到了這個階段了? !
對著一張照片隨手一刷,就能讓被選中的目標動起來!
明明是一輛靜止的卡車,但一經刷過,它立刻飛速啟動,連光影都完美地再現
這張照片本來只是一張火災照片,但現在只需隨手一刷,火焰就能沖天而起,熱度撲面而來
如果繼續這樣下去,就很難分辨照片和實拍影片了!
這是Runway為AI視訊軟體Gen-2打造的全新功能,透過一塗一刷的操作,可以使影像中的物件動起來,其逼真程度不亞於神筆馬良
雖然只是個功能預熱,不過效果一出就在網上爆火:
#看得網友一個個變身急急國王,直呼“等不及想要嘗試一波」:
Runway同時也發布了更多功能預熱效果,我們一起來看看吧
這個Runway新出的功能,叫做運動筆刷(Motion Brush)。
顧名思義,只需要用這個筆刷對著畫面中的任意物件「塗」一下,就能讓他們動起來。
不僅可以是靜止的人,連裙擺和頭部的動作都表現得非常自然
還可以是流動的液體如瀑布,連霧氣都能還原:
或是一根還沒熄滅的煙:
一團正在眾人面前燃燒的篝火:
更大塊的背景也能做成動態的,甚至改變畫面的光影效果,例如正在飛速移動的烏雲:
當然,以上所述只是Runway的明確聲明,他們主動告訴你他們對照片進行了某些處理
下面這些沒有塗抹痕蹟的視頻,更是幾乎完全看不出有AI修飾的成分在裡面:
一連串效果炸出,也導致功能還沒正式放出來,網友已經迫不及待了。
有很多人試圖弄清楚這個功能是如何實現的。還有一些網友更關注這個功能什麼時候發布,希望能直接在321上找到連結(手排狗頭)
可以期待一下了,確實有不少好消息
除此之外,Runway還推出了其他新功能
最近一連串的AI生成進展似乎都在表明,視頻生成領域似乎真要迎來技術大爆發了。
在这几天内,有一些网友发现了文生动画软件Animatediff的一种新的热门玩法
只需要结合最新的研究LCM-LORA,生成16帧的动画视频只需要7秒钟的时间。
LCM-LORA是华大和Hugging Face最新推出的AI图片生成技术,能够显著提高Stable Diffusion的图片生成速度
其中,LCM(Latent Consistency Models)是基于今年早些时候OpenAI的“一致性模型”提出来的一种图像生成新方法,能快速生成768×768的高分辨率图片。
但LCM不兼容现有模型,因此清华和抱抱脸的成员又新出了一版LCM-LORA模型,可以兼容所有Stable Diffusion模型,加速出图速度。
结合Animatediff软件,生成一个这样的动画只需要7秒钟左右:
目前LCM-LORA已经在抱抱脸上开源。
你感觉最近的AI视频生成进展如何,距离可用上还有多远?
参考链接:
[1]https://twitter.com/runwayml/status/1723033256067489937。
[2]https://twitter.com/op7418/status/1723016460220735748。
以上是影像塗哪就動哪! Gen-2新功能「神筆馬良」爆火,網友:急急的詳細內容。更多資訊請關注PHP中文網其他相關文章!