


Gabungan hebat model penyebaran + resolusi super, teknologi di sebalik penjana imej Google Imagen
Dalam beberapa tahun kebelakangan ini, pembelajaran multimodal telah mendapat banyak perhatian, terutamanya dalam dua arah sintesis imej teks dan pembelajaran kontrastif teks imej. Sesetengah model AI telah menarik perhatian umum kerana aplikasinya dalam penjanaan dan penyuntingan imej kreatif, seperti model imej teks DALL・E dan DALL-E 2 yang dilancarkan oleh OpenAI, dan GauGAN dan GauGAN2 NVIDIA.
Tidak ketinggalan, Google mengeluarkan model teks-ke-imej sendiri Imagen pada penghujung Mei, yang nampaknya memperluaskan lagi sempadan penjanaan imej bersyarat kapsyen.
Memandangkan hanya perihalan adegan, Imagen menghasilkan imej yang berkualiti tinggi dan beresolusi tinggi, tidak kira sama ada pemandangan itu masuk akal di dunia nyata. Rajah berikut menunjukkan beberapa contoh imej yang dihasilkan teks Imagen, dengan sari kata yang sepadan dipaparkan di bawah imej.
Imej terjana yang mengagumkan ini membuatkan anda tertanya-tanya: Bagaimanakah Imagen berfungsi?
Baru-baru ini, pensyarah pemaju Ryan O'Connor menulis artikel panjang "Bagaimana Imagen Sebenarnya Berfungsi" di blog AssemblyAI, menerangkan secara terperinci prinsip kerja Imagen, memberikan gambaran keseluruhan Imagen, menganalisis dan memahaminya High- komponen tahap dan hubungan antara mereka.
Ikhtisar prinsip kerja Imagen
Dalam bahagian ini, penulis menunjukkan seni bina keseluruhan Imagen dan memberikan penjelasan peringkat tinggi tentang prinsip kerja lain dan kemudian menganalisis setiap Imagen dengan lebih lanjut; teliti pula komponen. Animasi berikut menunjukkan aliran kerja Imagen.
Pertama, suapkan sari kata ke dalam pengekod teks . Pengekod ini menukar sari kata teks kepada perwakilan berangka yang merangkum maklumat semantik dalam teks. Pengekod teks dalam Imagen ialah pengekod Transformer, yang memastikan pengekodan teks memahami cara perkataan dalam sari kata berkaitan antara satu sama lain, menggunakan kaedah perhatian diri.
Jika Imagen hanya memfokuskan pada perkataan individu dan bukannya perkaitan di antara mereka, walaupun imej berkualiti tinggi yang mampu menangkap elemen individu sari kata boleh diperolehi, imej ini tidak boleh dihuraikan dengan cara yang sesuai yang mencerminkan semantik sari kata. Seperti yang ditunjukkan dalam contoh di bawah, jika perkaitan antara perkataan tidak dipertimbangkan, kesan penjanaan yang sama sekali berbeza akan berlaku.
Walaupun pengekod teks menghasilkan perwakilan yang berguna untuk input sari kata Imagen, kaedah masih perlu direka untuk menjana imej yang menggunakan perwakilan ini, iaitu Penjana Imej . Untuk melakukan ini, Imagen menggunakan model resapan , model generatif yang telah mendapat populariti dalam beberapa tahun kebelakangan ini berkat prestasi SOTAnya pada pelbagai tugas.
Model penyebaran merosakkan data latihan dengan menambahkan hingar untuk mencapai latihan, dan kemudian belajar memulihkan data dengan membalikkan proses hingar ini. Memandangkan imej input, model resapan akan merosakkan imej secara berulang dengan hingar Gaussian sepanjang beberapa langkah masa, akhirnya meninggalkan hingar Gaussian atau TV statik. Rajah berikut menunjukkan proses hingar berulang model resapan:
Model resapan kemudiannya akan berfungsi ke belakang, mempelajari cara mengasingkan dan menghapuskan hingar pada setiap langkah masa, membatalkan keluar apa yang baru berlaku proses pemusnahan. Selepas latihan selesai, model boleh dibahagikan kepada dua. Ini membolehkan anda bermula dengan pensampelan secara rawak bunyi Gaussian dan denoise secara beransur-ansur menggunakan model resapan untuk menjana imej, seperti ditunjukkan di bawah:
Ringkasnya, model resapan terlatih bermula dengan hingar Gaussian dan kemudian secara berulang menjana imej yang serupa dengan imej latihan. Jelas sekali bahawa tiada cara untuk mengawal output sebenar imej, hanya suapkan bunyi Gaussian ke dalam model dan ia akan mengeluarkan imej rawak yang kelihatan seperti ia tergolong dalam set data latihan.
Walau bagaimanapun, matlamatnya adalah untuk mencipta imej yang merangkumi maklumat semantik input sari kata kepada Imagen, jadi cara untuk memasukkan sari kata ke dalam proses penyebaran diperlukan. Bagaimana untuk melakukan ini?
Seperti yang dinyatakan di atas, pengekod teks menghasilkan pengekodan sari kata wakil, yang sebenarnya merupakan jujukan vektor. Untuk menyuntik maklumat yang dikodkan ini ke dalam model resapan, vektor ini diagregatkan bersama dan model resapan dilaraskan berdasarkannya. Dengan melaraskan vektor ini, model resapan mempelajari cara melaraskan proses denoisingnya untuk menghasilkan imej yang sepadan dengan sari kata dengan baik. Visualisasi proses kelihatan seperti ini:
Memandangkan penjana imej atau model asas mengeluarkan imej 64x64 yang kecil, untuk menambah sampel model ini kepada versi 1024x1024 terakhir, Tambah imej secara bijak menggunakan model peleraian super.
Untuk model peleraian super, Imagen sekali lagi menggunakan model resapan. Proses keseluruhan pada asasnya adalah sama dengan model asas, kecuali ia dilaraskan berdasarkan pengekodan sari kata semata-mata, tetapi juga dengan imej yang lebih kecil dijadikan sampel. Visualisasi keseluruhan proses adalah seperti berikut:
Output model resolusi super ini sebenarnya bukan output akhir, tetapi imej bersaiz sederhana. Untuk menaikkan skala imej ini kepada resolusi 1024x1024 terakhir, model peleraian super lain digunakan. Kedua-dua seni bina resolusi super adalah lebih kurang sama, jadi ia tidak akan diterangkan lagi. Output model resolusi super kedua ialah output akhir Imagen.
Mengapa Imagen lebih baik daripada DALL-E 2?
Menjawab dengan tepat mengapa Imagen lebih baik daripada DALL-E 2 adalah sukar. Walau bagaimanapun, sebahagian besar jurang prestasi berpunca daripada perbezaan sari kata dan isyarat. DALL-E 2 menggunakan sasaran yang berbeza untuk menentukan sejauh mana pengekodan teks berkaitan dengan imej (pada asasnya CLIP). Pengekod teks dan imej melaraskan parameternya supaya persamaan kosinus pasangan imej sari kata yang serupa dimaksimumkan, manakala persamaan kosinus pasangan imej sari kata yang tidak serupa diminimumkan.
Sebahagian besar jurang prestasi berpunca daripada fakta bahawa pengekod teks Imagen jauh lebih besar dan terlatih pada lebih banyak data berbanding pengekod teks DALL-E 2. Sebagai bukti untuk hipotesis ini, kita boleh memeriksa prestasi Imagen apabila pengekod teks berskala. Berikut ialah keluk Pareto untuk prestasi Imagen:
Kesan peningkatan pengekod teks adalah sangat tinggi, manakala kesan peningkatan skala U-Net adalah sangat rendah. Keputusan ini menunjukkan bahawa model resapan yang agak mudah boleh menghasilkan hasil yang berkualiti tinggi selagi ia dikondisikan pada pengekodan yang kuat.
Memandangkan pengekod teks T5 jauh lebih besar daripada pengekod teks CLIP, ditambah pula dengan fakta bahawa data latihan bahasa semula jadi semestinya lebih kaya daripada pasangan kapsyen imej, banyak jurang prestasi berkemungkinan disebabkan oleh perbezaan ini .
Selain itu, pengarang juga menyenaraikan beberapa perkara utama Imagen, termasuk yang berikut:
- Menskalakan pengekod teks sangat cekap;
- Menskalakan pengekod teks adalah lebih penting daripada menskalakan saiz U-Net; 🎜>Peningkatan keadaan hingar adalah penting dalam model resolusi super;
- Menggunakan perhatian silang untuk penyesuaian teks adalah penting;
- Cerapan ini memberikan hala tuju berharga kepada penyelidik yang mengusahakan model resapan yang bukan sahaja berguna dalam subbidang teks ke imej.
Atas ialah kandungan terperinci Gabungan hebat model penyebaran + resolusi super, teknologi di sebalik penjana imej Google Imagen. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Bayangkan model kecerdasan buatan yang bukan sahaja mempunyai keupayaan untuk mengatasi pengkomputeran tradisional, tetapi juga mencapai prestasi yang lebih cekap pada kos yang lebih rendah. Ini bukan fiksyen sains, DeepSeek-V2[1], model MoE sumber terbuka paling berkuasa di dunia ada di sini. DeepSeek-V2 ialah gabungan model bahasa pakar (MoE) yang berkuasa dengan ciri-ciri latihan ekonomi dan inferens yang cekap. Ia terdiri daripada 236B parameter, 21B daripadanya digunakan untuk mengaktifkan setiap penanda. Berbanding dengan DeepSeek67B, DeepSeek-V2 mempunyai prestasi yang lebih kukuh, sambil menjimatkan 42.5% kos latihan, mengurangkan cache KV sebanyak 93.3% dan meningkatkan daya pemprosesan penjanaan maksimum kepada 5.76 kali. DeepSeek ialah sebuah syarikat yang meneroka kecerdasan buatan am

Awal bulan ini, penyelidik dari MIT dan institusi lain mencadangkan alternatif yang sangat menjanjikan kepada MLP - KAN. KAN mengatasi MLP dari segi ketepatan dan kebolehtafsiran. Dan ia boleh mengatasi prestasi MLP berjalan dengan bilangan parameter yang lebih besar dengan bilangan parameter yang sangat kecil. Sebagai contoh, penulis menyatakan bahawa mereka menggunakan KAN untuk menghasilkan semula keputusan DeepMind dengan rangkaian yang lebih kecil dan tahap automasi yang lebih tinggi. Khususnya, MLP DeepMind mempunyai kira-kira 300,000 parameter, manakala KAN hanya mempunyai kira-kira 200 parameter. KAN mempunyai asas matematik yang kukuh seperti MLP berdasarkan teorem penghampiran universal, manakala KAN berdasarkan teorem perwakilan Kolmogorov-Arnold. Seperti yang ditunjukkan dalam rajah di bawah, KAN telah

Boston Dynamics Atlas secara rasmi memasuki era robot elektrik! Semalam, Atlas hidraulik hanya "menangis" menarik diri daripada peringkat sejarah Hari ini, Boston Dynamics mengumumkan bahawa Atlas elektrik sedang berfungsi. Nampaknya dalam bidang robot humanoid komersial, Boston Dynamics berazam untuk bersaing dengan Tesla. Selepas video baharu itu dikeluarkan, ia telah pun ditonton oleh lebih sejuta orang dalam masa sepuluh jam sahaja. Orang lama pergi dan peranan baru muncul. Ini adalah keperluan sejarah. Tidak dinafikan bahawa tahun ini adalah tahun letupan robot humanoid. Netizen mengulas: Kemajuan robot telah menjadikan majlis pembukaan tahun ini kelihatan seperti manusia, dan tahap kebebasan adalah jauh lebih besar daripada manusia Tetapi adakah ini benar-benar bukan filem seram? Pada permulaan video, Atlas berbaring dengan tenang di atas tanah, seolah-olah terlentang. Apa yang berikut adalah rahang-jatuh

AI memang mengubah matematik. Baru-baru ini, Tao Zhexuan, yang telah mengambil perhatian terhadap isu ini, telah memajukan keluaran terbaru "Buletin Persatuan Matematik Amerika" (Buletin Persatuan Matematik Amerika). Memfokuskan pada topik "Adakah mesin akan mengubah matematik?", ramai ahli matematik menyatakan pendapat mereka Seluruh proses itu penuh dengan percikan api, tegar dan menarik. Penulis mempunyai barisan yang kuat, termasuk pemenang Fields Medal Akshay Venkatesh, ahli matematik China Zheng Lejun, saintis komputer NYU Ernest Davis dan ramai lagi sarjana terkenal dalam industri. Dunia AI telah berubah secara mendadak Anda tahu, banyak artikel ini telah dihantar setahun yang lalu.

Prestasi JAX, yang dipromosikan oleh Google, telah mengatasi Pytorch dan TensorFlow dalam ujian penanda aras baru-baru ini, menduduki tempat pertama dalam 7 penunjuk. Dan ujian tidak dilakukan pada TPU dengan prestasi JAX terbaik. Walaupun dalam kalangan pembangun, Pytorch masih lebih popular daripada Tensorflow. Tetapi pada masa hadapan, mungkin lebih banyak model besar akan dilatih dan dijalankan berdasarkan platform JAX. Model Baru-baru ini, pasukan Keras menanda aras tiga hujung belakang (TensorFlow, JAX, PyTorch) dengan pelaksanaan PyTorch asli dan Keras2 dengan TensorFlow. Pertama, mereka memilih satu set arus perdana

Video terbaru robot Tesla Optimus dikeluarkan, dan ia sudah boleh berfungsi di kilang. Pada kelajuan biasa, ia mengisih bateri (bateri 4680 Tesla) seperti ini: Pegawai itu juga mengeluarkan rupanya pada kelajuan 20x - pada "stesen kerja" kecil, memilih dan memilih dan memilih: Kali ini ia dikeluarkan Salah satu sorotan video itu ialah Optimus menyelesaikan kerja ini di kilang, sepenuhnya secara autonomi, tanpa campur tangan manusia sepanjang proses. Dan dari perspektif Optimus, ia juga boleh mengambil dan meletakkan bateri yang bengkok, memfokuskan pada pembetulan ralat automatik: Berkenaan tangan Optimus, saintis NVIDIA Jim Fan memberikan penilaian yang tinggi: Tangan Optimus adalah robot lima jari di dunia paling cerdik. Tangannya bukan sahaja boleh disentuh

Kertas kerja ini meneroka masalah mengesan objek dengan tepat dari sudut pandangan yang berbeza (seperti perspektif dan pandangan mata burung) dalam pemanduan autonomi, terutamanya cara mengubah ciri dari perspektif (PV) kepada ruang pandangan mata burung (BEV) dengan berkesan dilaksanakan melalui modul Transformasi Visual (VT). Kaedah sedia ada secara amnya dibahagikan kepada dua strategi: penukaran 2D kepada 3D dan 3D kepada 2D. Kaedah 2D-ke-3D meningkatkan ciri 2D yang padat dengan meramalkan kebarangkalian kedalaman, tetapi ketidakpastian yang wujud dalam ramalan kedalaman, terutamanya di kawasan yang jauh, mungkin menimbulkan ketidaktepatan. Manakala kaedah 3D ke 2D biasanya menggunakan pertanyaan 3D untuk mencuba ciri 2D dan mempelajari berat perhatian bagi kesesuaian antara ciri 3D dan 2D melalui Transformer, yang meningkatkan masa pengiraan dan penggunaan.

Pengesanan objek ialah masalah yang agak matang dalam sistem pemanduan autonomi, antaranya pengesanan pejalan kaki adalah salah satu algoritma terawal untuk digunakan. Penyelidikan yang sangat komprehensif telah dijalankan dalam kebanyakan kertas kerja. Walau bagaimanapun, persepsi jarak menggunakan kamera fisheye untuk pandangan sekeliling agak kurang dikaji. Disebabkan herotan jejari yang besar, perwakilan kotak sempadan standard sukar dilaksanakan dalam kamera fisheye. Untuk mengurangkan perihalan di atas, kami meneroka kotak sempadan lanjutan, elips dan reka bentuk poligon am ke dalam perwakilan kutub/sudut dan mentakrifkan metrik mIOU pembahagian contoh untuk menganalisis perwakilan ini. Model fisheyeDetNet yang dicadangkan dengan bentuk poligon mengatasi model lain dan pada masa yang sama mencapai 49.5% mAP pada set data kamera fisheye Valeo untuk pemanduan autonomi
