Model penjanaan video seni bina seperti Sora terbuka sumber terbuka pertama di dunia ada di sini!
Keseluruhan proses latihan, termasuk pemprosesan data, semua butiran latihan dan berat model, semuanya terbuka.
Ini ialah Open-Sora 1.0 yang baru dikeluarkan.
Kesan sebenar yang dibawanya adalah seperti berikut, ia boleh menjana trafik yang sibuk dalam suasana malam bandar yang sibuk.
Anda juga boleh menggunakan perspektif fotografi udara untuk menunjukkan pemandangan pantai tebing dan air laut menghantam batu.
Atau langit berbintang yang luas di bawah fotografi selang masa.
Sejak dikeluarkan, mendedahkan dan mengeluarkan semula Sora telah menjadi salah satu topik yang paling diperkatakan dalam komuniti pembangunan kerana kesannya yang menakjubkan dan kekurangan butiran teknikal. Sebagai contoh, pasukan Colossal-AI melancarkan latihan Sora dan proses replikasi inferens yang boleh mengurangkan kos sebanyak 46%.
Selepas hanya dua minggu, pasukan itu sekali lagi mengeluarkan kemajuan terkini, menghasilkan semula penyelesaian seperti Sora, dan menjadikan penyelesaian teknikal dan tutorial terperinci tersedia sebagai sumber terbuka secara percuma di GitHub.
Maka persoalannya, bagaimana cara untuk membiak Sora?
Alamat sumber terbuka Open-Sora: https://github.com/hpcaitech/Open-Sora
Penyelesaian replikasi Sora merangkumi empat aspek:
Model ini menggunakan seni bina homolog Sora Diffusion Transformer (DiT).
Ia berdasarkan PixArt-α, model graf sumber terbuka berkualiti tinggi menggunakan seni bina DiT Atas dasar ini, ia memperkenalkan lapisan perhatian sementara dan memanjangkannya kepada data video.
Secara khusus, keseluruhan seni bina termasuk VAE yang telah terlatih, pengekod teks dan model STDiT (Spatial Temporal Diffusion Transformer) yang menggunakan mekanisme perhatian spatial-temporal.
Antaranya, struktur setiap lapisan STDiT ditunjukkan dalam rajah di bawah.
Ia menggunakan kaedah bersiri untuk menindih modul perhatian temporal satu dimensi pada modul perhatian spatial dua dimensi untuk memodelkan hubungan temporal. Selepas modul perhatian temporal, modul perhatian silang digunakan untuk menyelaraskan semantik teks.
Berbanding dengan mekanisme perhatian penuh, struktur sedemikian sangat mengurangkan overhed latihan dan inferens.
Berbanding dengan model Latte, yang juga menggunakan mekanisme perhatian spatial-temporal, STDiT boleh menggunakan pemberat imej pra-latihan DiT dengan lebih baik untuk meneruskan latihan mengenai data video.
△STDiT rajah struktur
Proses latihan dan inferens keseluruhan model adalah seperti berikut.
Difahamkan bahawa dalam peringkat latihan, pengekod Variational Autoencoder (VAE) yang telah dilatih terlebih dahulu digunakan untuk memampatkan data video, dan kemudian model resapan STDiT dilatih bersama-sama dengan pembenaman teks dalam ruang pendam termampat.
Dalam peringkat inferens, hingar Gaussian diambil secara rawak daripada ruang terpendam VAE, dan dimasukkan ke dalam STDiT bersama-sama dengan pembenaman segera untuk mendapatkan ciri yang dihilangkan Akhirnya, ia dimasukkan ke penyahkod VAE, dan penyahkodan diperoleh video .
△Proses latihan model
Dalam bahagian pembiakan latihan, Open-Sora merujuk kepada Stable Video Diffusion (SVD).
Ia terbahagi kepada 3 peringkat:
Setiap peringkat akan meneruskan latihan berdasarkan berat peringkat sebelumnya.
Berbanding dengan latihan satu peringkat dari awal, latihan berbilang peringkat mencapai matlamat penjanaan video berkualiti tinggi dengan lebih cekap dengan mengembangkan data secara beransur-ansur.
△Tiga peringkat pelan latihan
Pasukan menggunakan data imej yang kaya dan teknologi graf Vincentian di Internet untuk melatih model graf Vincentian berkualiti tinggi terlebih dahulu dan menggunakan model ini sebagai pemberat permulaan untuk peringkat pra-latihan video yang seterusnya.
Pada masa yang sama, memandangkan pada masa ini tiada VAE spatio-temporal berkualiti tinggi, mereka menggunakan VAE imej terlatih Stable Diffusion.
Ini bukan sahaja memastikan prestasi unggul model awal, tetapi juga mengurangkan kos keseluruhan pra-latihan video dengan ketara.
Peringkat ini terutamanya meningkatkan keupayaan generalisasi model dan memahami korelasi siri masa video dengan berkesan.
Ia perlu menggunakan sejumlah besar data video untuk latihan dan memastikan kepelbagaian bahan video.
Pada masa yang sama, model peringkat kedua menambah modul perhatian temporal berdasarkan model graf Vincentian peringkat pertama untuk mempelajari hubungan temporal dalam video. Modul yang selebihnya kekal konsisten dengan peringkat pertama dan memuatkan pemberat peringkat pertama sebagai permulaan Pada masa yang sama, output modul perhatian temporal dimulakan kepada sifar untuk mencapai penumpuan yang lebih cekap dan lebih cepat.
Pasukan Colossal-AI menggunakan pemberat sumber terbuka PixArt-alpha sebagai permulaan bagi model STDiT peringkat kedua dan model T5 sebagai pengekod teks. Mereka menggunakan resolusi kecil 256x256 untuk pra-latihan, yang meningkatkan lagi kelajuan penumpuan dan mengurangkan kos latihan.
△Kesan penjanaan Sora Terbuka (kata anjuran: rakaman dunia bawah air, di mana seekor penyu berenang santai di antara terumbu karang)
Menurut laporan, peringkat ini boleh meningkatkan kualiti penjanaan model dengan ketara. Saiz data yang digunakan adalah satu susunan magnitud lebih rendah daripada peringkat sebelumnya, tetapi tempoh, resolusi dan kualiti video lebih tinggi.
Penalaan halus dengan cara ini boleh mencapai pengembangan penjanaan video yang cekap daripada pendek ke panjang, daripada peleraian rendah kepada peleraian tinggi dan daripada kesetiaan rendah kepada kesetiaan tinggi.
Perlu dinyatakan bahawa Colossal-AI juga mendedahkan penggunaan sumber setiap peringkat secara terperinci.
Dalam proses pembiakan Open-Sora, mereka menggunakan 64 H800 untuk latihan. Jumlah volum latihan peringkat kedua ialah 2808 jam GPU, iaitu lebih kurang AS$7,000, dan volum latihan peringkat ketiga ialah 1920 jam GPU, iaitu kira-kira AS$4,500. Selepas anggaran awal, keseluruhan pelan latihan berjaya mengawal proses pembiakan Open-Sora kepada kira-kira AS$10,000.
Untuk mengurangkan lagi ambang dan kerumitan pengulangan Sora, pasukan Colossal-AI juga menyediakan skrip prapemprosesan data video yang mudah dalam gudang kod, supaya semua orang boleh memulakan pra-latihan ulangan Sora dengan mudah.
Termasuk memuat turun set data video awam, membahagikan video panjang kepada klip video pendek berdasarkan kesinambungan tangkapan, dan menggunakan model bahasa besar sumber terbuka LLaVA untuk menjana perkataan segera yang tepat.
Kod penjanaan tajuk video kelompok yang mereka sediakan boleh menganotasi video dengan dua kad dan 3 saat, dan kualitinya hampir dengan GPT-4V.
Pasangan video/teks akhir boleh digunakan terus untuk latihan. Dengan kod sumber terbuka yang mereka sediakan di GitHub, anda boleh dengan mudah dan cepat menjana pasangan video/teks yang diperlukan untuk latihan pada set data anda sendiri, dengan ketara mengurangkan ambang teknikal dan persediaan awal untuk memulakan projek replikasi Sora.
Selain itu, pasukan Colossal-AI juga menyediakan penyelesaian pecutan latihan.
Melalui strategi latihan yang cekap seperti pengoptimuman operator dan keselarian hibrid, kesan pecutan 1.55x telah dicapai dalam latihan pemprosesan video 64 bingkai, 512x512.
Pada masa yang sama, terima kasih kepada sistem pengurusan memori heterogen Colossal-AI, tugas latihan video definisi tinggi 1080p 1 minit boleh dilakukan tanpa halangan pada satu pelayan (8H800).
Dan pasukan juga mendapati bahawa seni bina model STDiT juga menunjukkan kecekapan yang sangat baik semasa latihan.
Berbanding dengan DiT menggunakan mekanisme perhatian penuh, STDiT mencapai pecutan sehingga 5 kali ganda apabila bilangan bingkai bertambah, yang amat kritikal dalam tugasan sebenar seperti memproses jujukan video yang panjang.
Akhirnya, pasukan itu juga mengeluarkan lebih banyak kesan generasi Open-Sora.
, tempoh 00:25
Pasukan dan Qubits mendedahkan bahawa mereka akan mengemas kini dan mengoptimumkan penyelesaian dan pembangunan berkaitan Open-Sora dalam jangka panjang. Pada masa hadapan, lebih banyak data latihan video akan digunakan untuk menjana kualiti yang lebih tinggi, kandungan video yang lebih panjang dan menyokong ciri berbilang resolusi.
Dari segi aplikasi praktikal, pasukan mendedahkan bahawa ia akan mempromosikan pelaksanaan dalam filem, permainan, pengiklanan dan bidang lain.
Pembangun yang berminat boleh melawati projek GitHub untuk mengetahui lebih lanjut~
Open-Sora Alamat sumber terbuka: https://github.com/hpcaitech/Open-Sora
Pautan rujukan:
[1]https: //arxiv .org/abs/2212.09748 Model Resapan Boleh Skala dengan Transformer.
[2]https://arxiv.org/abs/2310.00426 PixArt-α: Latihan Pantas Transformer Resapan untuk Sintesis Teks-ke-Imej Fotorealistik.
[3]https://arxiv.org/abs/2311.15127 Resapan Video Stabil: Menskalakan Model Resapan Video Terpendam kepada Set Data Besar.
[4]https://arxiv.org/abs/2401.03048 Latte: Pengubah Resapan Terpendam untuk Penjanaan Video.
[5]https://huggingface.co/stabilityai/sd-vae-ft-mse-original.
[6]https://github.com/google-research/text-to-text-transfer-transformer.
[7]https://github.com/haotian-liu/LLaVA.
[8]https://hpc-ai.com/blog/open-sora-v1.0.
Atas ialah kandungan terperinci Penyelesaian pembiakan sumber terbuka seperti Sora pertama di dunia ada di sini! Pendedahan penuh semua butiran latihan dan berat model. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!