沒等來OpenAI,等來了Open-Sora全面開源
不久前 OpenAI Sora 以其驚人的視訊生成效果迅速走紅,在一眾文生視訊模型中突出重圍,成為全球矚目的焦點。繼2 週前推出成本直降46% 的Sora 訓練推理復現流程後,Colossal-AI 團隊全面開源全球首個類Sora 架構視頻生成模型 “Open-Sora 1.0”,涵蓋了整個訓練流程,包括資料處理、所有訓練細節與模型權重,攜手全球AI 熱愛者共同推動影片創作的新紀元。
先睹為快,我們先看一段由 Colossal-AI 團隊發布的「Open-Sora 1.0」模型生成的都市繁華掠影影片。
Open-Sora 1.0 生成的都市繁華掠影
這僅僅是Sora 復現技術冰山的一角,關於以上文生影片的模型架構、訓練好的模型權重、復現的所有訓練細節、資料預處理過程、demo 展示和詳細的上手教程,Colossal-AI 團隊已經全面免費開源在GitHub,同時筆者第一時間聯繫了該團隊,了解到他們將不斷更新Open-Sora 的相關解決方案和最新動態,有興趣的朋友可以持續關注Open-Sora 的開源社群。
Open-Sora 開源位址:https://github.com/hpcaitech/Open-Sora
全面解讀Sora 復現方案
接下來,我們將深入探討Sora復現方案的幾個關鍵方面,包括模型架構設計、訓練方法、資料預處理、模型效果展示以及最佳化訓練策略。
模型架構設計
模型採用了目前火熱的 Diffusion Transformer (DiT) [1] 架構。作者團隊以同樣使用 DiT 架構的高品質開源文生圖模型 PixArt-α [2] 為基座,在此基礎上引入時間注意力層,將其擴展到了視訊資料上。具體來說,整個架構包括一個預先訓練好的 VAE,一個文字編碼器,和一個利用空間 - 時間注意力機制的 STDiT (Spatial Temporal Diffusion Transformer) 模型。其中,STDiT 每層的結構如下圖所示。它採用串列的方式在二維的空間注意力模組上疊加一維的時間注意力模組,用於建模時序關係。在時間注意力模組之後,交叉注意力模組用於對齊文字的語義。與全注意力機制相比,這樣的結構大大降低了訓練和推理開銷。與同樣使用空間 - 時間注意力機制的 Latte [3] 模型相比,STDiT 可以更好的利用已經預訓練好的影像 DiT 的權重,從而在視訊資料上繼續訓練。
STDiT 結構示意圖
整個模型的訓練和推理流程如下。據了解,在訓練階段首先採用預先訓練的 Variational Autoencoder (VAE) 的編碼器將視訊資料進行壓縮,然後在壓縮之後的潛在空間中與文字嵌入 (text embedding) 一起訓練 STDiT 擴散模型。在推理階段,從 VAE 的潛在空間中隨機採樣出一個高斯噪聲,與提示詞嵌入 (prompt embedding) 一起輸入到 STDiT 中,得到去噪之後的特徵,最後輸入到 VAE 的解碼器,解碼得到視頻。
模型的訓練流程
訓練復現方案
我們向該團隊了解到,Open-Sora 的復現方案參考了Stable Video Diffusion (SVD)[3] 工作,共包括三個階段,分別是:
- 大規模影像預訓練。
- 大規模影片預訓練。
- 高品質視訊資料微調。
每個階段都會基於前一個階段的權重繼續訓練。相較於從零開始單階段訓練,多階段訓練透過逐步擴展數據,更有效率地達成高品質視訊生成的目標。
訓練方案三階段
#第一階段:大規模影像預訓練
第一階段透過大規模影像預先訓練,借助成熟的文生圖模型,有效降低影片預訓練成本。
作者團隊向我們透露,透過網路上豐富的大規模影像資料和先進的文生圖技術,我們可以訓練一個高品質的文生圖模型,該模型將作為下一階段視訊預訓練的初始化權重。同時,由於目前沒有高品質的時空 VAE,他們採用了 Stable Diffusion [5] 模型預先訓練好的影像 VAE。此策略不僅保障了初始模型的優越性能,還顯著降低了視訊預訓練的整體成本。
第二階段:大規模視訊預訓練
第二階段執行大規模視訊預訓練,增加模型泛化能力,有效掌握影片的時間序列關聯。
我們了解到,這個階段需要使用大量視訊資料訓練,確保視訊主題的多樣性,進而增加模型的泛化能力。第二階段的模型在第一階段文生圖模型的基礎上加入了時序注意力模組,用於學習影片中的時序關係。其餘模組與第一階段保持一致,並載入第一階段權重作為初始化,同時初始化時序注意力模組輸出為零,以達到更有效率、更快速的收斂。 Colossal-AI 團隊使用了 PixArt-alpha [2] 的開源權重作為第二階段 STDiT 模型的初始化,以及採用了 T5 [6] 模型作為文字編碼器。同時他們採用了 256x256 的小解析度進行預訓練,進一步增加了收斂速度,降低訓練成本。
第三階段:高品質視訊資料微調
#第三階段對高品質視訊資料進行微調,顯著提升視訊產生的質量。
作者團隊提及第三階段用到的影片資料規模比第二階段少一個量級,但是影片的時長、解析度和品質都更高。透過這種方式進行微調,他們實現了視訊生成從短到長、從低解析度到高解析度、從低保真度到高保真度的高效擴展。
作者團隊表示,在 Open-Sora 的複現流程中,他們使用了 64 塊 H800 進行訓練。第二階段的訓練量總共是 2808 GPU hours,約 7,000 美元,第三階段的訓練量是 1920 GPU hours,約 4,500 美元。經過初步估算,整個訓練計畫成功把 Open-Sora 復現流程控制在了 1 萬美元左右。
資料預處理
為了進一步降低Sora 復現的門檻和複雜度,Colossal-AI 團隊在程式碼倉庫中也提供了方便的視訊資料預處理腳本,讓大家輕鬆啟動Sora 復現預訓練,包括公開視訊資料集下載,長視訊根據鏡頭連續性分割為短視訊片段,使用開源大語言模型LLaVA [7] 產生精細的提示詞。作者團隊提到他們提供的批量視頻標題生成代碼可以用兩卡 3 秒標註一個視頻,並且質量接近於 GPT-4V。最終得到的影片 / 文字對可直接用於訓練。借助他們在 GitHub 上提供的開源程式碼,我們可以輕鬆地在自己的資料集上快速產生訓練所需的影片 / 文字對,顯著降低了啟動 Sora 復現專案的技術門檻和前期準備。
基於資料預處理腳本自動產生的影片/ 文字對
模型產生效果顯示
下面我們來看看Open-Sora 實際影片產生效果。例如讓 Open-Sora 生成一段在懸崖海岸邊,海水拍打著岩石的空拍畫面。
再讓 Open-Sora 去捕捉山川瀑布從懸崖上澎湃而下,最終匯入湖泊的宏偉鳥瞰畫面。
除了上天還能入海,簡單輸入prompt,讓Open-Sora 生成了一段水中世界的鏡頭,鏡頭中一隻海龜在珊瑚礁間悠然游弋。
Open-Sora 還能透過縮時攝影的手法,向我們展現了繁星閃爍的銀河。
如果你還有更多影片產生的有趣想法,可以訪問 Open-Sora 開源社群以獲取模型權重進行免費的體驗。連結:https://github.com/hpcaitech/Open-Sora
#值得注意的是,作者團隊在Github 上提到目前版本僅使用了400K 的訓練數據,模型的生成品質和遵循文字的能力都有待提升。例如在上面的烏龜影片中,生成的烏龜多了一隻腳。 Open-Sora 1.0 也不擅長產生人像和複雜畫面。作者團隊在 Github 上列舉了一系列待做規劃,旨在不斷解決現有缺陷,提升生成品質。
高效訓練加持
除了大幅降低Sora 復現的技術門檻,提升視頻生成在時長、分辨率、內容等多個維度的質量,作者團隊還提供了Colossal-AI 加速系統進行Sora 復現的高效訓練加持。透過算子優化和混合平行等高效訓練策略,在處理 64 幀、512x512 解析度視訊的訓練中,實現了 1.55 倍的加速效果。同時,由於 Colossal-AI 的異質記憶體管理系統,在單一伺服器上(8*H800)可以無阻礙地進行 1 分鐘的 1080p 高清視訊訓練任務。
此外,在作者團隊的報告中,我們也發現 STDiT 模型架構在訓練時也展現出卓越的高效性。和採用全注意力機制的 DiT 相比,隨著幀數的增加,STDiT 實現了高達 5 倍的加速效果,這在處理長視訊序列等現實任務中尤為關鍵。
歡迎持續關注Open-Sora 開源專案:https://github.com/hpcaitech/Open-Sora
#作者團隊表示,他們將繼續維護和優化Open-Sora 項目,預計將使用更多的視訊訓練數據,以產生更高品質、更長的視訊內容,並支援多解析度特性,實際推進AI 技術在電影、遊戲、廣告等領域的落地。
參考連結:
[1] https://arxiv.org/abs/2212.09748 Scalable Diffusion Models with Transformers。
[2] https://arxiv.org/abs/2310.00426 PixArt-α: Fast Training of Diffusion Transformer for Photorealistic Text-to-Image Synthesis。
[3] https://arxiv.org/abs/2311.15127 Stable Video Diffusion: Scaling Latent Video Diffusion Models to Large Datasets。
[4] https://arxiv.org/abs/2401.03048 Latte: Latent Diffusion Transformer for Video Generation。
[5] https://huggingface.co/stabilityai/sd-vae-ft-mse-original。
[6] https://github.com/google-research/text-to-text-transfer-transformer。
[7] https://github.com/haotian-liu/LLaVA。
[8] https://hpc-ai.com/blog/open-sora-v1.0。
以上是沒等來OpenAI,等來了Open-Sora全面開源的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

熱門話題

本站6月27日訊息,剪映是由位元組跳動旗下臉萌科技開發的一款影片剪輯軟體,依託於抖音平台且基本面向該平台用戶製作短影片內容,並相容於iOS、安卓、Windows 、MacOS等作業系統。剪映官方宣布會員體系升級,推出全新SVIP,包含多種AI黑科技,例如智慧翻譯、智慧劃重點、智慧包裝、數位人合成等。價格方面,剪映SVIP月費79元,年費599元(本站註:折合每月49.9元),連續包月則為59元每月,連續包年為499元每年(折合每月41.6元) 。此外,剪映官方也表示,為提升用戶體驗,向已訂閱了原版VIP

透過將檢索增強生成和語意記憶納入AI編碼助手,提升開發人員的生產力、效率和準確性。譯自EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG,作者JanakiramMSV。雖然基本AI程式設計助理自然有幫助,但由於依賴對軟體語言和編寫軟體最常見模式的整體理解,因此常常無法提供最相關和正確的程式碼建議。這些編碼助手產生的代碼適合解決他們負責解決的問題,但通常不符合各個團隊的編碼標準、慣例和風格。這通常會導致需要修改或完善其建議,以便將程式碼接受到應

大型語言模型(LLM)是在龐大的文字資料庫上訓練的,在那裡它們獲得了大量的實際知識。這些知識嵌入到它們的參數中,然後可以在需要時使用。這些模型的知識在訓練結束時被「具體化」。在預訓練結束時,模型實際上停止學習。對模型進行對齊或進行指令調優,讓模型學習如何充分利用這些知識,以及如何更自然地回應使用者的問題。但是有時模型知識是不夠的,儘管模型可以透過RAG存取外部內容,但透過微調使用模型適應新的領域被認為是有益的。這種微調是使用人工標註者或其他llm創建的輸入進行的,模型會遇到額外的實際知識並將其整合

如果AI模型給的答案一點也看不懂,你敢用嗎?隨著機器學習系統在更重要的領域中得到應用,證明為什麼我們可以信任它們的輸出,並明確何時不應信任它們,變得越來越重要。獲得對複雜系統輸出結果信任的一個可行方法是,要求系統對其輸出產生一種解釋,這種解釋對人類或另一個受信任的系統來說是可讀的,即可以完全理解以至於任何可能的錯誤都可以被發現。例如,為了建立對司法系統的信任,我們要求法院提供清晰易讀的書面意見,解釋並支持其決策。對於大型語言模型來說,我們也可以採用類似的方法。不過,在採用這種方法時,確保語言模型生

編輯|ScienceAI問答(QA)資料集在推動自然語言處理(NLP)研究中發揮著至關重要的作用。高品質QA資料集不僅可以用於微調模型,也可以有效評估大語言模型(LLM)的能力,尤其是針對科學知識的理解和推理能力。儘管目前已有許多科學QA數據集,涵蓋了醫學、化學、生物等領域,但這些數據集仍有一些不足之處。其一,資料形式較為單一,大多數為多項選擇題(multiple-choicequestions),它們易於進行評估,但限制了模型的答案選擇範圍,無法充分測試模型的科學問題解答能力。相比之下,開放式問答

編輯|KX在藥物研發領域,準確有效地預測蛋白質與配體的結合親和力對於藥物篩選和優化至關重要。然而,目前的研究並沒有考慮到分子表面訊息在蛋白質-配體相互作用中的重要作用。基於此,來自廈門大學的研究人員提出了一種新穎的多模態特徵提取(MFE)框架,該框架首次結合了蛋白質表面、3D結構和序列的信息,並使用交叉注意機制進行不同模態之間的特徵對齊。實驗結果表明,該方法在預測蛋白質-配體結合親和力方面取得了最先進的性能。此外,消融研究證明了該框架內蛋白質表面資訊和多模態特徵對齊的有效性和必要性。相關研究以「S

本站7月5日消息,格芯(GlobalFoundries)於今年7月1日發布新聞稿,宣布收購泰戈爾科技(TagoreTechnology)的功率氮化鎵(GaN)技術及智慧財產權組合,希望在汽車、物聯網和人工智慧資料中心應用領域探索更高的效率和更好的效能。隨著生成式人工智慧(GenerativeAI)等技術在數位世界的不斷發展,氮化鎵(GaN)已成為永續高效電源管理(尤其是在資料中心)的關鍵解決方案。本站引述官方公告內容,在本次收購過程中,泰戈爾科技公司工程師團隊將加入格芯,進一步開發氮化鎵技術。 G

本站8月1日消息,SK海力士今天(8月1日)發布博文,宣布將出席8月6日至8日,在美國加州聖克拉拉舉行的全球半導體記憶體峰會FMS2024,展示諸多新一代產品。未來記憶體和儲存高峰會(FutureMemoryandStorage)簡介前身是主要面向NAND供應商的快閃記憶體高峰會(FlashMemorySummit),在人工智慧技術日益受到關注的背景下,今年重新命名為未來記憶體和儲存高峰會(FutureMemoryandStorage),以邀請DRAM和儲存供應商等更多參與者。新產品SK海力士去年在
