AIGC時代的視訊擴散模型,復旦等團隊發表領域首篇綜述
AI 生成內容已成為當前人工智慧領域的最熱門話題之一,也代表著該領域的前沿技術。近年來,隨著 Stable Diffusion、DALL-E3、ControlNet 等新技術的發布,AI 影像生成和編輯領域實現了令人驚豔的視覺效果,並且在學術界和工業界都受到了廣泛關注和探討。這些方法大多基於擴散模型,而這正是它們能夠實現強大可控生成、照片級生成以及多樣性的關鍵。
然而,與簡單的靜態圖像相比,視訊具有更為豐富的語義資訊和動態變化。影片能夠展示實物的動態演變過程,因此在影片生成和編輯領域的需求和挑戰更為複雜。儘管在這個領域,受限於標註數據和計算資源的限制,視頻生成的研究一直面臨困難,但是一些代表性的研究工作,比如Make-A-Video、Imagen Video 和Gen-2 等方法,已經開始逐漸佔據主導地位。
這些研究工作引領著影片產生和編輯技術的發展方向。研究數據顯示,自 2022 年以來,關於擴散模型在視訊任務上的研究工作呈現出爆炸性成長的態勢。這種趨勢不僅體現了視訊擴散模型在學術界和工業界的受歡迎程度,同時也凸顯了該領域的研究者對於視訊生成技術不斷突破和創新的迫切需求。
近期,復旦大學視覺與學習實驗室聯合微軟、華為等學術機構發布了首個關於擴散模型在視訊任務工作的綜述,系統梳理了擴散模型在視訊生成、視訊編輯以及視訊理解等方向的學術前沿成果。
- 論文連結:https://arxiv.org/abs/2310.10647
- #主頁連結:https://github.com/ChenHsing/Awesome-Video-Diffusion-Models
影片產生
基於文字的視訊生成:自然語言作為輸入的視訊生成是視訊生成領域最為重要的任務之一。作者首先回顧了擴散模型提出先前該領域的研究成果,然後分別介紹了基於訓練的和無需訓練的文本 - 視頻生成模型。
Christmas tree holiday celebration winter snow animation.
基於其他條件的影片生成:細分領域的影片產生工作。作者將它們歸類為基於以下的條件:姿勢(pose-guided)、動作(motion-guided)、聲音(sound-guided)、圖像(image-guided)、深度圖(depth-guided)等。
#無條件的影片產生: 此任務指的是特定領域中無需輸入條件的影片生成,作者根據模型架構主要分為基於U-Net 和基於Transformer 的生成模型。
影片補全:主要包含影片增強與復原、影片預測等任務。
資料集:影片產生任務所用到的資料集可分為以下兩類:
#1.Caption-level:每個影片都有與之對應的文字描述訊息,最具代表性的就是WebVid10M 資料集。
2.Category-level:影片只有分類標籤而沒有文字描述訊息,UCF-101 是目前在影片產生、影片預測等任務上最常用的資料集。
評估指標與結果比較:影片產生的評估指標主要分為品質層面的評估指標與量化層面的評估指標,品質層面的評估指標主要是基於人工主觀評分的方式,而定量層面的評估指標又可分為:
1. 影像層面的評估指標:影片是由一系列的影像幀所組成的,因此影像層面的評估方式基本上參照T2I 模型的評估指標。
2. 影片層面的評估指標:相較於影像層面的評量指標較偏向逐格的衡量,影片層面的評量指標能夠衡量產生影片的時序連貫性等方面。
此外,作者也將前述提到的生成模型在基準資料集上的評估指標進行了橫向比較。
影片編輯
#透過對許多研究的梳理,作者發現影片編輯任務的核心目標在於實現:
1. 保真度(fidelity):編輯後的影片的對應影格應與原始影片在內容上保持一致。
2. 對齊性(alignment):編輯後的影片需要和輸入的條件保持對齊。
3. 高品質(high quality):編輯後的影片應當是連貫且高品質的。
基於文字的影片編輯:考慮到現有文字- 影片資料規模有限,目前大多數基於文字的影片編輯任務都傾向於利用預先訓練的T2I 模型,在此基礎上解決視訊幀的連貫性和語義不一致性等問題。作者進一步將此類任務細分為基於訓練的(training-based)、無需訓練的(training-free)和一次性調優的(one-shot tuned)方法,分別加以總結。
#基於其他條件的影片編輯:隨著大模型時代的到來,除了最直接的自然語言訊息作為條件的影片編輯,由指令、聲音、動作、多模態等作為條件的影片編輯正受到越來越多的關注,作者也對相應的工作進行了分類梳理。
特定細分領域的影片編輯:一些工作專注於在特定領域對影片編輯任務有特殊客製化的需求,例如影片著色、人像影片編輯等。
影片理解
#擴散模型在影片領域的應用已遠不止傳統的影片產生和編輯任務,它在影片理解任務上也展現了出巨大的潛能。透過對前沿論文的追踪,作者歸納了視訊時序分割、視訊異常檢測、視訊物件分割、文字視訊檢索、動作識別等 10 個現有的應用場景。
未來與總結
該綜述全面細緻地總結了AIGC 時代擴散模型在視頻任務上的最新研究,根據研究對象和技術特點,將百餘份前沿工作進行了分類和概述,在一些經典的基準(benchmark)上對這些模型進行比較。此外,擴散模型在視訊任務領域也還有一些新的研究方向和挑戰,如:
1. 大規模的文本- 視訊資料集收集:T2I 模型的成功離不開數以億計高品質的文字- 影像資料集,同樣地,T2V 模型也需要大量無浮水印、高解析度的文字- 視訊資料作為支撐。
2. 高效率的訓練與推理:視訊資料比起影像資料規模龐大,在訓練與推理階段所需的算力也呈現幾何倍數增加,高效率的訓練與推理演算法能大幅降低成本。
3. 可靠的基準與評價指標:現有影片領域的評估指標往往在於衡量產生影片與原始影片在分佈上的差異,而未能全面衡量產生影片的品質.同時,目前使用者測試仍是重要的評估方式之一,考慮到其需要大量人力且主觀性強,因此迫切需要更客觀全面的評估指標。
以上是AIGC時代的視訊擴散模型,復旦等團隊發表領域首篇綜述的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

熱門話題

0.這篇文章乾了啥?提出了DepthFM:一個多功能且快速的最先進的生成式單目深度估計模型。除了傳統的深度估計任務外,DepthFM還展示了在深度修復等下游任務中的最先進能力。 DepthFM效率高,可以在少數推理步驟內合成深度圖。以下一起來閱讀這項工作~1.論文資訊標題:DepthFM:FastMonocularDepthEstimationwithFlowMatching作者:MingGui,JohannesS.Fischer,UlrichPrestel,PingchuanMa,Dmytr

想像一下,一個人工智慧模型,不僅擁有超越傳統運算的能力,還能以更低的成本實現更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強開源MoE模型來了。 DeepSeek-V2是一個強大的專家混合(MoE)語言模型,具有訓練經濟、推理高效的特點。它由236B個參數組成,其中21B個參數用於啟動每個標記。與DeepSeek67B相比,DeepSeek-V2效能更強,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

AI,的確正在改變數學。最近,一直十分關注這個議題的陶哲軒,轉發了最近一期的《美國數學學會通報》(BulletinoftheAmericanMathematicalSociety)。圍繞著「機器會改變數學嗎?」這個話題,許多數學家發表了自己的觀點,全程火花四射,內容硬核,精彩紛呈。作者陣容強大,包括菲爾茲獎得主AkshayVenkatesh、華裔數學家鄭樂雋、紐大電腦科學家ErnestDavis等多位業界知名學者。 AI的世界已經發生了天翻地覆的變化,要知道,其中許多文章是在一年前提交的,而在這一

波士頓動力Atlas,正式進入電動機器人時代!昨天,液壓Atlas剛「含淚」退出歷史舞台,今天波士頓動力就宣布:電動Atlas上崗。看來,在商用人形機器人領域,波士頓動力是下定決心要跟特斯拉硬剛一把了。新影片放出後,短短十幾小時內,就已經有一百多萬觀看。舊人離去,新角色登場,這是歷史的必然。毫無疑問,今年是人形機器人的爆發年。網友銳評:機器人的進步,讓今年看起來像人類的開幕式動作、自由度遠超人類,但這真不是恐怖片?影片一開始,Atlas平靜地躺在地上,看起來應該是仰面朝天。接下來,讓人驚掉下巴

本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具

什麼?瘋狂動物城被國產AI搬進現實了?與影片一同曝光的,是一款名為「可靈」全新國產影片生成大模型。 Sora利用了相似的技術路線,結合多項自研技術創新,生產的影片不僅運動幅度大且合理,還能模擬物理世界特性,具備強大的概念組合能力與想像。數據上看,可靈支持生成長達2分鐘的30fps的超長視頻,分辨率高達1080p,且支援多種寬高比。另外再劃個重點,可靈不是實驗室放出的Demo或影片結果演示,而是短影片領域頭部玩家快手推出的產品級應用。而且主打一個務實,不開空頭支票、發布即上線,可靈大模型已在快影

哭死啊,全球狂煉大模型,一網路的資料不夠用,根本不夠用。訓練模型搞得跟《飢餓遊戲》似的,全球AI研究者,都在苦惱怎麼才能餵飽這群資料大胃王。尤其在多模態任務中,這問題尤其突出。一籌莫展之際,來自人大系的初創團隊,用自家的新模型,率先在國內把「模型生成數據自己餵自己」變成了現實。而且還是理解側和生成側雙管齊下,兩側都能產生高品質、多模態的新數據,對模型本身進行數據反哺。模型是啥?中關村論壇上剛露面的多模態大模型Awaker1.0。團隊是誰?智子引擎。由人大高瓴人工智慧學院博士生高一鑷創立,高

最近,軍事圈被這個消息刷屏了:美軍的戰鬥機,已經能由AI完成全自動空戰了。是的,就在最近,美軍的AI戰鬥機首次公開,揭開了神秘面紗。這架戰鬥機的全名是可變穩定性飛行模擬器測試飛機(VISTA),由美空軍部長親自搭乘,模擬了一對一的空戰。 5月2日,美國空軍部長FrankKendall在Edwards空軍基地駕駛X-62AVISTA升空注意,在一小時的飛行中,所有飛行動作都由AI自主完成! Kendall表示——在過去的幾十年中,我們一直在思考自主空對空作戰的無限潛力,但它始終顯得遙不可及。然而如今,
