


Laporan teknikal Stable Diffusion 3 bocor, seni bina Sora telah membuat pencapaian hebat sekali lagi! Adakah komuniti sumber terbuka dengan ganas mengalahkan Midjourney dan DALL·E 3?
Stability AI mengeluarkan laporan teknikal terperinci hari ini selepas mengeluarkan Stable Diffusion 3.
Kertas ini menyediakan analisis mendalam tentang teknologi teras Stable Diffusion 3 - versi model Difusi yang dipertingkat dan seni bina baharu graf Vincentian berdasarkan DiT!
Alamat laporan:
Seni bina Multi-modal Diffusion Transformer (MMDiT) AI yang baru dibangunkan menggunakan set pemberat bebas khusus untuk perwakilan imej dan bahasa. Berbanding dengan versi terdahulu SD 3, MMDiT telah mencapai peningkatan yang ketara dalam pemahaman teks dan ejaan.
Penilaian Prestasi
Berdasarkan maklum balas manusia, laporan teknikal membandingkan SD 3 dengan sejumlah besar model sumber terbuka SDXL, SDXL Turbo, Stable Cascade, Playground v2.5 dan Pixart-α serta model sumber tertutup DALL·E 3, Midjourney v6 dan Ideogram v1 telah dinilai secara terperinci.
Penilai memilih output terbaik untuk setiap model berdasarkan ketekalan gesaan yang ditentukan, kejelasan teks dan estetika keseluruhan imej.
Hasil ujian menunjukkan bahawa Stable Diffusion 3 telah mencapai atau melebihi tahap tertinggi teknologi penjanaan gambar rajah Vincentian semasa, sama ada dari segi ketepatan dalam gesaan berikut, persembahan teks yang jelas atau keindahan visual imej.
Model SD 3 yang tidak dioptimumkan sepenuhnya perkakasan mempunyai parameter 8B, boleh dijalankan pada GPU pengguna RTX 4090 dengan memori video 24GB, dan menghasilkan resolusi 1024x1024 menggunakan 50 imej mengambil langkah pensampelan. .
Selain itu, Stable Diffusion 3 akan menyediakan berbilang versi apabila dikeluarkan, dengan parameter antara 800 juta hingga 8 bilion, yang boleh menurunkan lagi ambang perkakasan untuk digunakan.
Butiran seni bina terdedah
Dalam proses menghasilkan gambar rajah Vincent, model perlu memproses dua jenis maklumat, teks dan imej yang berbeza, pada masa yang sama. Jadi penulis memanggil rangka kerja baharu ini sebagai MMDiT.
Dalam proses penjanaan teks ke imej, model perlu memproses dua jenis maklumat berbeza, teks dan imej, pada masa yang sama. Inilah sebabnya mengapa penulis memanggil teknologi baharu ini MMDiT (singkatan dari Multimodal Diffusion Transformer).
Seperti versi Stable Diffusion sebelumnya, SD 3 menggunakan model pra-latihan untuk mengekstrak ungkapan teks dan imej yang sesuai.
Secara khusus, mereka menggunakan tiga pengekod teks berbeza—dua model CLIP dan T5—untuk memproses maklumat teks, sambil menggunakan model pengekodan auto yang lebih maju untuk memproses maklumat imej.
Seni bina SD 3 dibina berdasarkan Diffusion Transformer (DiT). Disebabkan perbezaan antara maklumat teks dan imej, SD 3 menetapkan pemberat bebas untuk setiap dua jenis maklumat ini.
Reka bentuk ini bersamaan dengan melengkapkan dua Transformer bebas untuk setiap jenis maklumat, tetapi apabila melaksanakan mekanisme perhatian, urutan data kedua-dua jenis maklumat akan digabungkan, supaya mereka boleh bekerja secara bebas dalam bidang masing-masing, boleh mengekalkan rujukan dan integrasi bersama.
Melalui seni bina unik ini, maklumat imej dan teks boleh mengalir dan berinteraksi antara satu sama lain, dengan itu meningkatkan pemahaman keseluruhan kandungan dan perwakilan visual dalam hasil yang dihasilkan.
Selain itu, seni bina ini boleh diperluaskan dengan mudah kepada modaliti lain termasuk video pada masa hadapan.
Terima kasih kepada penambahbaikan SD 3 dalam gesaan berikut, model ini mampu menjana imej dengan tepat yang memfokus pada pelbagai tema dan ciri yang berbeza, sambil mengekalkan tahap fleksibiliti yang tinggi dalam gaya imej.
Peningkatan Aliran Diperbetulkan melalui kaedah pemberat semula
Selain seni bina Diffusion Transformer baharu, SD 3 juga membuat penambahbaikan yang ketara pada model Diffusion.
SD 3 mengguna pakai strategi Rectified Flow (RF) untuk menyambung data latihan dan hingar di sepanjang trajektori lurus.
Kaedah ini menjadikan laluan inferens model lebih langsung, jadi penjanaan sampel boleh diselesaikan dalam langkah yang lebih sedikit.
Pengarang memperkenalkan pelan persampelan trajektori yang inovatif dalam proses latihan, terutamanya meningkatkan berat pada bahagian tengah trajektori, di mana tugas ramalan adalah lebih mencabar.
Dengan membandingkan dengan 60 trajektori resapan lain (seperti LDM, EDM dan ADM), penulis mendapati bahawa walaupun kaedah RF sebelumnya menunjukkan prestasi yang lebih baik dalam persampelan beberapa langkah, prestasi perlahan-lahan menurun apabila bilangan langkah pensampelan meningkat. .
Untuk mengelakkan situasi ini, kaedah RF wajaran yang dicadangkan oleh penulis boleh terus meningkatkan prestasi model.
Model Transformer RF Lanjutan
Kestabilan AI melatih berbilang model saiz berbeza, daripada 15 modul dan parameter 450M kepada 38 modul dan parameter 8B, dan mendapati kedua-dua saiz model dan langkah latihan dapat mengurangkan kehilangan pengesahan dengan lancar.
Untuk mengesahkan sama ada ini bermakna peningkatan yang ketara dalam output model, mereka juga menilai metrik penjajaran imej automatik dan skor keutamaan manusia.
Hasilnya menunjukkan bahawa penunjuk penilaian ini berkorelasi kuat dengan kehilangan pengesahan, menunjukkan bahawa kehilangan pengesahan adalah penunjuk yang berkesan untuk mengukur prestasi keseluruhan model.
Selain itu, aliran pengembangan ini tidak mencapai titik tepu, menjadikan kami optimis bahawa kami boleh meningkatkan lagi prestasi model pada masa hadapan.
Pengarang melatih model untuk 500k langkah dengan bilangan parameter yang berbeza pada resolusi 256 * 256 piksel dan saiz kelompok 4096.
Rajah di atas menggambarkan kesan melatih model yang lebih besar untuk masa yang lama terhadap kualiti sampel.
Jadual di atas menunjukkan keputusan Geneval. Apabila menggunakan kaedah latihan yang dicadangkan oleh pengarang dan meningkatkan resolusi imej latihan, model terbesar menunjukkan prestasi yang baik dalam kebanyakan kategori, mengatasi DALL·E sebanyak 3 dalam skor keseluruhan.
Menurut perbandingan ujian pengarang terhadap model seni bina yang berbeza, MMDiT sangat berkesan, mengatasi DiT, Cross DiT, UViT dan MM-DiT.
Pengekod teks fleksibel
Dengan mengalih keluar pengekod teks T5 parameter 4.7B intensif memori semasa fasa inferens, keperluan memori SD 3 dikurangkan dengan ketara dengan kehilangan prestasi yang minimum.
Mengalih keluar pengekod teks ini tidak akan menjejaskan keindahan visual imej (kadar kemenangan 50% tanpa T5), tetapi hanya akan mengurangkan sedikit keupayaan teks untuk mengikuti dengan tepat (kadar kemenangan 46%).
Walau bagaimanapun, untuk memberikan permainan penuh kepada keupayaan SD 3 untuk menjana teks, penulis masih mengesyorkan menggunakan pengekod T5.
Oleh kerana pengarang mendapati bahawa tanpanya, prestasi penetapan taip yang dihasilkan teks akan mengalami penurunan yang lebih besar (kadar kemenangan 38%). Perbincangan hangat dalam kalangan netizen
Selepas membaca aplikasi teknikal, netizen berkata nampaknya bulatan fotografi kini akan menjadi trek pertama di mana sumber terbuka akan menghancurkan sumber tertutup!
Atas ialah kandungan terperinci Laporan teknikal Stable Diffusion 3 bocor, seni bina Sora telah membuat pencapaian hebat sekali lagi! Adakah komuniti sumber terbuka dengan ganas mengalahkan Midjourney dan DALL·E 3?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Bayangkan model kecerdasan buatan yang bukan sahaja mempunyai keupayaan untuk mengatasi pengkomputeran tradisional, tetapi juga mencapai prestasi yang lebih cekap pada kos yang lebih rendah. Ini bukan fiksyen sains, DeepSeek-V2[1], model MoE sumber terbuka paling berkuasa di dunia ada di sini. DeepSeek-V2 ialah gabungan model bahasa pakar (MoE) yang berkuasa dengan ciri-ciri latihan ekonomi dan inferens yang cekap. Ia terdiri daripada 236B parameter, 21B daripadanya digunakan untuk mengaktifkan setiap penanda. Berbanding dengan DeepSeek67B, DeepSeek-V2 mempunyai prestasi yang lebih kukuh, sambil menjimatkan 42.5% kos latihan, mengurangkan cache KV sebanyak 93.3% dan meningkatkan daya pemprosesan penjanaan maksimum kepada 5.76 kali. DeepSeek ialah sebuah syarikat yang meneroka kecerdasan buatan am

AI memang mengubah matematik. Baru-baru ini, Tao Zhexuan, yang telah mengambil perhatian terhadap isu ini, telah memajukan keluaran terbaru "Buletin Persatuan Matematik Amerika" (Buletin Persatuan Matematik Amerika). Memfokuskan pada topik "Adakah mesin akan mengubah matematik?", ramai ahli matematik menyatakan pendapat mereka Seluruh proses itu penuh dengan percikan api, tegar dan menarik. Penulis mempunyai barisan yang kuat, termasuk pemenang Fields Medal Akshay Venkatesh, ahli matematik China Zheng Lejun, saintis komputer NYU Ernest Davis dan ramai lagi sarjana terkenal dalam industri. Dunia AI telah berubah secara mendadak Anda tahu, banyak artikel ini telah dihantar setahun yang lalu.

Prestasi JAX, yang dipromosikan oleh Google, telah mengatasi Pytorch dan TensorFlow dalam ujian penanda aras baru-baru ini, menduduki tempat pertama dalam 7 penunjuk. Dan ujian tidak dilakukan pada TPU dengan prestasi JAX terbaik. Walaupun dalam kalangan pembangun, Pytorch masih lebih popular daripada Tensorflow. Tetapi pada masa hadapan, mungkin lebih banyak model besar akan dilatih dan dijalankan berdasarkan platform JAX. Model Baru-baru ini, pasukan Keras menanda aras tiga hujung belakang (TensorFlow, JAX, PyTorch) dengan pelaksanaan PyTorch asli dan Keras2 dengan TensorFlow. Pertama, mereka memilih satu set arus perdana

Boston Dynamics Atlas secara rasmi memasuki era robot elektrik! Semalam, Atlas hidraulik hanya "menangis" menarik diri daripada peringkat sejarah Hari ini, Boston Dynamics mengumumkan bahawa Atlas elektrik sedang berfungsi. Nampaknya dalam bidang robot humanoid komersial, Boston Dynamics berazam untuk bersaing dengan Tesla. Selepas video baharu itu dikeluarkan, ia telah pun ditonton oleh lebih sejuta orang dalam masa sepuluh jam sahaja. Orang lama pergi dan peranan baru muncul. Ini adalah keperluan sejarah. Tidak dinafikan bahawa tahun ini adalah tahun letupan robot humanoid. Netizen mengulas: Kemajuan robot telah menjadikan majlis pembukaan tahun ini kelihatan seperti manusia, dan tahap kebebasan adalah jauh lebih besar daripada manusia Tetapi adakah ini benar-benar bukan filem seram? Pada permulaan video, Atlas berbaring dengan tenang di atas tanah, seolah-olah terlentang. Apa yang berikut adalah rahang-jatuh

Awal bulan ini, penyelidik dari MIT dan institusi lain mencadangkan alternatif yang sangat menjanjikan kepada MLP - KAN. KAN mengatasi MLP dari segi ketepatan dan kebolehtafsiran. Dan ia boleh mengatasi prestasi MLP berjalan dengan bilangan parameter yang lebih besar dengan bilangan parameter yang sangat kecil. Sebagai contoh, penulis menyatakan bahawa mereka menggunakan KAN untuk menghasilkan semula keputusan DeepMind dengan rangkaian yang lebih kecil dan tahap automasi yang lebih tinggi. Khususnya, MLP DeepMind mempunyai kira-kira 300,000 parameter, manakala KAN hanya mempunyai kira-kira 200 parameter. KAN mempunyai asas matematik yang kukuh seperti MLP berdasarkan teorem penghampiran universal, manakala KAN berdasarkan teorem perwakilan Kolmogorov-Arnold. Seperti yang ditunjukkan dalam rajah di bawah, KAN telah

Hari ini saya ingin berkongsi kerja penyelidikan terbaru dari University of Connecticut yang mencadangkan kaedah untuk menyelaraskan data siri masa dengan model pemprosesan bahasa semula jadi (NLP) yang besar pada ruang terpendam untuk meningkatkan prestasi peramalan siri masa. Kunci kepada kaedah ini ialah menggunakan petunjuk spatial terpendam (prompt) untuk meningkatkan ketepatan ramalan siri masa. Tajuk kertas: S2IP-LLM: SemanticSpaceInformedPromptLearningwithLLMforTimeSeriesForecasting Alamat muat turun: https://arxiv.org/pdf/2403.05798v1.pdf 1. Model latar belakang masalah besar

Video terbaru robot Tesla Optimus dikeluarkan, dan ia sudah boleh berfungsi di kilang. Pada kelajuan biasa, ia mengisih bateri (bateri 4680 Tesla) seperti ini: Pegawai itu juga mengeluarkan rupanya pada kelajuan 20x - pada "stesen kerja" kecil, memilih dan memilih dan memilih: Kali ini ia dikeluarkan Salah satu sorotan video itu ialah Optimus menyelesaikan kerja ini di kilang, sepenuhnya secara autonomi, tanpa campur tangan manusia sepanjang proses. Dan dari perspektif Optimus, ia juga boleh mengambil dan meletakkan bateri yang bengkok, memfokuskan pada pembetulan ralat automatik: Berkenaan tangan Optimus, saintis NVIDIA Jim Fan memberikan penilaian yang tinggi: Tangan Optimus adalah robot lima jari di dunia paling cerdik. Tangannya bukan sahaja boleh disentuh

Pengesanan objek ialah masalah yang agak matang dalam sistem pemanduan autonomi, antaranya pengesanan pejalan kaki adalah salah satu algoritma terawal untuk digunakan. Penyelidikan yang sangat komprehensif telah dijalankan dalam kebanyakan kertas kerja. Walau bagaimanapun, persepsi jarak menggunakan kamera fisheye untuk pandangan sekeliling agak kurang dikaji. Disebabkan herotan jejari yang besar, perwakilan kotak sempadan standard sukar dilaksanakan dalam kamera fisheye. Untuk mengurangkan perihalan di atas, kami meneroka kotak sempadan lanjutan, elips dan reka bentuk poligon am ke dalam perwakilan kutub/sudut dan mentakrifkan metrik mIOU pembahagian contoh untuk menganalisis perwakilan ini. Model fisheyeDetNet yang dicadangkan dengan bentuk poligon mengatasi model lain dan pada masa yang sama mencapai 49.5% mAP pada set data kamera fisheye Valeo untuk pemanduan autonomi
