


Ketahui arahan berbilang modal: AI penjanaan imej Google membolehkan anda mengikuti dengan mudah
Kini terdapat model penjanaan imej baharu yang direka oleh Google, yang boleh melukis kucing dalam Rajah 1 dalam gaya Rajah 2 dan meletakkan topi padanya. Model ini menggunakan teknologi penalaan halus arahan untuk menjana imej baharu dengan tepat berdasarkan arahan teks dan imej rujukan berbilang. Kesannya sangat baik, setanding dengan master PS secara peribadi membantu anda membuat gambar.
Apabila menggunakan model bahasa besar (LLM), kami telah menyedari kepentingan penalaan halus arahan. Dengan penalaan halus yang sesuai, LLM boleh melaksanakan pelbagai tugas, seperti mengarang puisi, menulis kod, menulis skrip, membantu dalam penyelidikan saintifik, dan juga menjalankan pengurusan pelaburan.
Sekarang model besar telah memasuki era multi-modal, adakah penalaan halus arahan masih berkesan? Sebagai contoh, bolehkah kita memperhalusi kawalan penjanaan imej melalui arahan berbilang modal? Tidak seperti penjanaan bahasa, penjanaan imej melibatkan multimodaliti dari awal. Bolehkah kita membolehkan model memahami kerumitan multimodaliti dengan berkesan?
Untuk menyelesaikan masalah ini, Google DeepMind dan Google Research mencadangkan kaedah arahan pelbagai mod untuk mencapai penjanaan imej. Kaedah ini menjalin maklumat daripada modaliti yang berbeza untuk menyatakan syarat bagi penjanaan imej (contoh ditunjukkan dalam panel kiri Rajah 1).
Arahan berbilang mod boleh meningkatkan arahan bahasa Contohnya, pengguna boleh menentukan gaya imej rujukan untuk menjana model untuk memaparkan imej. Antara muka interaktif intuitif ini membolehkan penetapan keadaan berbilang mod yang cekap untuk tugas penjanaan imej.
Berdasarkan idea ini, pasukan mencipta model penjanaan imej arahan berbilang mod: Instruct-Imagen.
Alamat kertas: https://arxiv.org/abs/2401.01952
Model menggunakan kaedah latihan dua peringkat: mula-mula meningkatkan keupayaan model untuk mengendalikan arahan pelbagai mod, dan kemudian dengan setia mengikuti Niat pengguna pelbagai mod.
Dalam fasa pertama, pasukan itu menggunakan model teks-ke-imej terlatih yang ditugaskan untuk memproses input berbilang modal tambahan kemudiannya memperhalusinya supaya ia boleh bertindak balas dengan tepat kepada arahan berbilang modal. Khususnya, model pra-latihan yang mereka ambil ialah model resapan dan ditambah dengan konteks (imej, teks) yang serupa yang diambil daripada korpus skala rangkaian (imej, teks).
Dalam fasa kedua, pasukan memperhalusi model pada pelbagai tugas penjanaan imej, setiap satunya dipasangkan dengan arahan berbilang modal yang sepadan - arahan ini termasuk elemen utama tugasan masing-masing. Selepas langkah di atas, model Instruct-Imagen yang terhasil boleh mengendalikan input gabungan pelbagai modaliti dengan sangat mahir (seperti lakaran serta gaya visual yang diterangkan dengan arahan teks), supaya ia boleh menjana imej yang sesuai dengan konteks dengan tepat dan cukup terang.
Seperti yang ditunjukkan dalam Rajah 1, Instruct-Imagen berprestasi sangat baik, dapat memahami arahan multi-modal yang kompleks dan menjana imej yang mengikut niat manusia dengan setia, malah mengendalikan gabungan arahan yang belum pernah dilihat sebelum ini.
Maklum balas manusia menunjukkan bahawa dalam banyak keadaan, Instruct-Imagen bukan sahaja memadankan prestasi model khusus tugasan pada tugasan yang sepadan, malah mengatasinya. Bukan itu sahaja, Instruct-Imagen juga menunjukkan keupayaan generalisasi yang kuat dan boleh digunakan untuk tugas penjanaan imej yang tidak kelihatan dan lebih kompleks.
Arahan berbilang mod untuk penjanaan
Model pra-latihan yang digunakan oleh pasukan adalah model penyebaran dan pengguna boleh menetapkan syarat input untuknya. Sila rujuk kertas asal untuk butiran.
Untuk arahan multi-modal, untuk memastikan fleksibiliti dan keupayaan generalisasi, pasukan mencadangkan format pengajaran multi-modal bersatu, di mana peranan bahasa adalah untuk menyatakan dengan jelas matlamat tugas, dan keadaan pelbagai mod digunakan sebagai maklumat rujukan.
Format arahan yang baru dicadangkan ini mengandungi dua komponen utama: (1) Perintah teks muatan, yang berperanan untuk menerangkan matlamat tugasan secara terperinci dan memberikan pengenalan maklumat rujukan, seperti [ref#?]. (2) Konteks multimodal dengan berpasangan (logo + teks, imej). Model kemudian menggunakan model pemahaman arahan yang dikongsi untuk mengendalikan arahan teks dan konteks multimodal—modaliti khusus konteks tidak terhad di sini.
Rajah 2 menunjukkan bagaimana format ini boleh mewakili pelbagai tugas generasi terdahulu melalui tiga contoh, yang menunjukkan bahawa format ini boleh serasi dengan tugas penjanaan imej sebelumnya. Lebih penting lagi, bahasa itu fleksibel, jadi arahan multimodal boleh dilanjutkan untuk tugasan baharu tanpa sebarang reka bentuk khas untuk modaliti dan tugasan.
Instruct-Imagen
Instruct-Imagen adalah berdasarkan arahan multi-modal. Berdasarkan ini, pasukan mereka bentuk seni bina model berdasarkan model resapan teks-ke-imej yang telah terlatih, iaitu model resapan bertingkat, supaya ia boleh mengguna pakai sepenuhnya syarat arahan berbilang mod input.
Secara khusus, mereka menggunakan varian Imagen, lihat kertas kerja "Model penyebaran teks-ke-imej fotorealistik dengan pemahaman bahasa yang mendalam", dan dilatih berdasarkan sumber data dalaman mereka. Model lengkapnya mengandungi dua sub-komponen: (1) komponen teks-ke-imej, yang tugasnya menjana imej resolusi 128×128 menggunakan gesaan teks sahaja; (2) model resolusi super bersyarat teks, yang boleh menukar resolusi 128 imej ke dalam Naik taraf kepada resolusi 1024.
Bagi pengekodan arahan berbilang modal, lihat Rajah 3 (kanan), yang menunjukkan aliran data arahan berbilang mod pengekodan Instruct-Imagen.
Latihan Instruct-Imagen dengan kaedah dua peringkat
Proses latihan Instruct-Imagen terbahagi kepada dua peringkat.
Peringkat pertama ialah latihan teks-ke-imej yang dipertingkatkan, yang menggunakan pasangan jiran (imej, teks) yang dipertingkatkan untuk meneruskan latihan penjanaan teks-ke-imej.
Peringkat kedua adalah untuk memperhalusi model keluaran peringkat pertama, yang akan menggunakan campuran pelbagai tugas penjanaan imej, setiap satunya dipasangkan dengan arahan berbilang modal yang sepadan. Khususnya, pasukan menggunakan 11 imej merentas 5 kategori tugasan untuk menjana set data, lihat Jadual 1.
Dalam kedua-dua peringkat latihan, model ini dioptimumkan dari hujung ke hujung.
Eksperimen
Pasukan menjalankan penilaian percubaan kaedah dan model yang baru dicadangkan, dan menjalankan analisis mendalam tentang reka bentuk dan mod kegagalan Instruct-Imagen.
Tetapan Eksperimen
Pasukan menilai model dalam dua tetapan, iaitu penilaian tugasan dalam domain dan penilaian tugasan sifar, di mana tetapan terakhir lebih mencabar daripada tetapan sebelumnya.
Keputusan Utama
Rajah 4 membandingkan Arahan-Imej dengan kaedah asas dan kaedah sebelumnya, dan keputusan menunjukkan bahawa ia adalah setanding dengan kaedah sebelumnya dalam penilaian domain dan penilaian sampel sifar.
Ini menunjukkan bahawa latihan dengan arahan multimodal boleh meningkatkan prestasi model pada tugasan dengan data latihan terhad (seperti penjanaan penggayaan), sambil mengekalkan prestasi pada tugas yang kaya dengan data (seperti menjana imej seperti foto) Kesan. Tanpa latihan arahan berbilang modal, penanda aras berbilang tugas cenderung menghasilkan kualiti imej dan penjajaran teks yang lemah.
Sebagai contoh, dalam contoh penggayaan dalam konteks dalam Rajah 5, penanda aras berbilang tugas mengalami kesukaran membezakan gaya daripada objek, jadi objek dihasilkan semula dalam hasil yang dijana. Atas sebab yang sama, ia juga berprestasi buruk pada tugas pemindahan gaya. Pemerhatian ini menyerlahkan nilai penalaan halus arahan.
Tidak seperti kaedah atau latihan semasa yang bergantung pada tugasan tertentu, Instruct-Imagen boleh menguruskan tugasan gabungan dengan cekap (tanpa penalaan halus, seperti contoh) dengan memanfaatkan arahan yang menggabungkan matlamat tugasan yang berbeza dan melaksanakan penaakulan dalam konteks mengambil masa 18.2 saat).
Seperti yang ditunjukkan dalam Rajah 6, Instruct-Imagen sentiasa mengatasi model lain dari segi arahan mengikut dan kualiti output.
Bukan itu sahaja, apabila terdapat berbilang rujukan dalam konteks berbilang modal, model garis dasar berbilang tugas tidak boleh sepadan dengan arahan teks dengan rujukan, menyebabkan beberapa syarat berbilang modal diabaikan. Keputusan ini menunjukkan lagi keberkesanan model yang baru dicadangkan.
Analisis Model dan Kajian Ablasi
Pasukan menganalisis had dan mod kegagalan model.
Sebagai contoh, pasukan mendapati bahawa Instruct-Imagen yang diperhalusi boleh mengedit imej. Seperti yang ditunjukkan dalam Jadual 2, dengan membandingkan pengecatan SDXL sebelumnya, Imagen yang ditala halus pada dataset MagicBrush dan Instruct-Imagen yang ditala halus, boleh didapati bahawa Instruct-Imagen yang ditala halus adalah jauh lebih baik daripada satu yang direka khusus untuk pengeditan imej berasaskan topeng.
Walau bagaimanapun, Instruct-Imagen yang diperhalusi menghasilkan artifak dalam imej yang diedit, terutamanya output resolusi tinggi selepas langkah resolusi super, seperti yang ditunjukkan dalam Rajah 7. Para penyelidik mengatakan ini kerana model itu sebelum ini tidak belajar untuk menyalin piksel secara tepat terus dari konteks.
Pasukan juga mendapati bahawa latihan yang dipertingkatkan dapat membantu meningkatkan keupayaan generalisasi, dan hasilnya ditunjukkan dalam Jadual 3.
Mengenai mod kegagalan Instruct-Imagen, penyelidik mendapati bahawa apabila arahan multi-modal lebih kompleks (sekurang-kurangnya 3 keadaan multi-modal), Instruct-Imagen mengalami kesukaran menjana hasil yang mematuhi arahan. Rajah 8 memberikan dua contoh.
Berikut menunjukkan beberapa keputusan mengenai tugas kompleks yang belum dilihat semasa latihan.
Pasukan juga menjalankan kajian ablasi untuk membuktikan kepentingan komponen reka bentuknya.
Walau bagaimanapun, disebabkan kebimbangan keselamatan, Google belum mengeluarkan kod dan API penyelidikan ini lagi.
Sila rujuk kertas asal untuk butiran lanjut.
Atas ialah kandungan terperinci Ketahui arahan berbilang modal: AI penjanaan imej Google membolehkan anda mengikuti dengan mudah. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas





Tetapi mungkin dia tidak dapat mengalahkan lelaki tua di taman itu? Sukan Olimpik Paris sedang rancak berlangsung, dan pingpong telah menarik perhatian ramai. Pada masa yang sama, robot juga telah membuat penemuan baru dalam bermain pingpong. Sebentar tadi, DeepMind mencadangkan ejen robot pembelajaran pertama yang boleh mencapai tahap pemain amatur manusia dalam pingpong yang kompetitif. Alamat kertas: https://arxiv.org/pdf/2408.03906 Sejauh manakah robot DeepMind bermain pingpong? Mungkin setanding dengan pemain amatur manusia: kedua-dua pukulan depan dan pukulan kilas: pihak lawan menggunakan pelbagai gaya permainan, dan robot juga boleh bertahan: servis menerima dengan putaran yang berbeza: Walau bagaimanapun, keamatan permainan nampaknya tidak begitu sengit seperti lelaki tua di taman itu. Untuk robot, pingpong

Pada 21 Ogos, Persidangan Robot Dunia 2024 telah diadakan dengan megah di Beijing. Jenama robot rumah SenseTime "Yuanluobot SenseRobot" telah memperkenalkan seluruh keluarga produknya, dan baru-baru ini mengeluarkan robot permainan catur AI Yuanluobot - Edisi Profesional Catur (selepas ini dirujuk sebagai "Yuanluobot SenseRobot"), menjadi robot catur A pertama di dunia untuk rumah. Sebagai produk robot permainan catur ketiga Yuanluobo, robot Guoxiang baharu telah melalui sejumlah besar peningkatan teknikal khas dan inovasi dalam AI dan jentera kejuruteraan Buat pertama kalinya, ia telah menyedari keupayaan untuk mengambil buah catur tiga dimensi melalui cakar mekanikal pada robot rumah, dan melaksanakan Fungsi mesin manusia seperti bermain catur, semua orang bermain catur, semakan notasi, dsb.

Permulaan sekolah akan bermula, dan bukan hanya pelajar yang akan memulakan semester baharu yang harus menjaga diri mereka sendiri, tetapi juga model AI yang besar. Beberapa ketika dahulu, Reddit dipenuhi oleh netizen yang mengadu Claude semakin malas. "Tahapnya telah banyak menurun, ia sering berhenti seketika, malah output menjadi sangat singkat. Pada minggu pertama keluaran, ia boleh menterjemah dokumen penuh 4 halaman sekaligus, tetapi kini ia tidak dapat mengeluarkan separuh halaman pun. !" https:// www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/ dalam siaran bertajuk "Totally disappointed with Claude", penuh dengan

Pada Persidangan Robot Dunia yang diadakan di Beijing, paparan robot humanoid telah menjadi tumpuan mutlak di gerai Stardust Intelligent, pembantu robot AI S1 mempersembahkan tiga persembahan utama dulcimer, seni mempertahankan diri dan kaligrafi dalam. satu kawasan pameran, berkebolehan kedua-dua sastera dan seni mempertahankan diri, menarik sejumlah besar khalayak profesional dan media. Permainan elegan pada rentetan elastik membolehkan S1 menunjukkan operasi halus dan kawalan mutlak dengan kelajuan, kekuatan dan ketepatan. CCTV News menjalankan laporan khas mengenai pembelajaran tiruan dan kawalan pintar di sebalik "Kaligrafi Pengasas Syarikat Lai Jie menjelaskan bahawa di sebalik pergerakan sutera, bahagian perkakasan mengejar kawalan daya terbaik dan penunjuk badan yang paling menyerupai manusia (kelajuan, beban). dll.), tetapi di sisi AI, data pergerakan sebenar orang dikumpulkan, membolehkan robot menjadi lebih kuat apabila ia menghadapi situasi yang kuat dan belajar untuk berkembang dengan cepat. Dan tangkas

Pada persidangan ACL ini, para penyumbang telah mendapat banyak keuntungan. ACL2024 selama enam hari diadakan di Bangkok, Thailand. ACL ialah persidangan antarabangsa teratas dalam bidang linguistik pengiraan dan pemprosesan bahasa semula jadi Ia dianjurkan oleh Persatuan Antarabangsa untuk Linguistik Pengiraan dan diadakan setiap tahun. ACL sentiasa menduduki tempat pertama dalam pengaruh akademik dalam bidang NLP, dan ia juga merupakan persidangan yang disyorkan CCF-A. Persidangan ACL tahun ini adalah yang ke-62 dan telah menerima lebih daripada 400 karya termaju dalam bidang NLP. Petang semalam, persidangan itu mengumumkan kertas kerja terbaik dan anugerah lain. Kali ini, terdapat 7 Anugerah Kertas Terbaik (dua tidak diterbitkan), 1 Anugerah Kertas Tema Terbaik, dan 35 Anugerah Kertas Cemerlang. Persidangan itu turut menganugerahkan 3 Anugerah Kertas Sumber (ResourceAward) dan Anugerah Impak Sosial (

Petang ini, Hongmeng Zhixing secara rasmi mengalu-alukan jenama baharu dan kereta baharu. Pada 6 Ogos, Huawei mengadakan persidangan pelancaran produk baharu Hongmeng Smart Xingxing S9 dan senario penuh Huawei, membawakan sedan perdana pintar panoramik Xiangjie S9, M7Pro dan Huawei novaFlip baharu, MatePad Pro 12.2 inci, MatePad Air baharu, Huawei Bisheng With banyak produk pintar semua senario baharu termasuk pencetak laser siri X1, FreeBuds6i, WATCHFIT3 dan skrin pintar S5Pro, daripada perjalanan pintar, pejabat pintar kepada pakaian pintar, Huawei terus membina ekosistem pintar senario penuh untuk membawa pengguna pengalaman pintar Internet Segala-galanya. Hongmeng Zhixing: Pemerkasaan mendalam untuk menggalakkan peningkatan industri kereta pintar Huawei berganding bahu dengan rakan industri automotif China untuk menyediakan

Pengenalan Persidangan Dengan perkembangan pesat sains dan teknologi, kecerdasan buatan telah menjadi kuasa penting dalam menggalakkan kemajuan sosial. Dalam era ini, kami bertuah untuk menyaksikan dan mengambil bahagian dalam inovasi dan aplikasi Kecerdasan Buatan Teragih (DAI). Kecerdasan buatan yang diedarkan adalah cabang penting dalam bidang kecerdasan buatan, yang telah menarik lebih banyak perhatian dalam beberapa tahun kebelakangan ini. Agen berdasarkan model bahasa besar (LLM) tiba-tiba muncul Dengan menggabungkan pemahaman bahasa yang kuat dan keupayaan penjanaan model besar, mereka telah menunjukkan potensi besar dalam interaksi bahasa semula jadi, penaakulan pengetahuan, perancangan tugas, dsb. AIAgent mengambil alih model bahasa besar dan telah menjadi topik hangat dalam kalangan AI semasa. Au

Penyepaduan mendalam penglihatan dan pembelajaran robot. Apabila dua tangan robot bekerja bersama-sama dengan lancar untuk melipat pakaian, menuang teh dan mengemas kasut, ditambah pula dengan 1X robot humanoid NEO yang telah menjadi tajuk berita baru-baru ini, anda mungkin mempunyai perasaan: kita seolah-olah memasuki zaman robot. Malah, pergerakan sutera ini adalah hasil teknologi robotik canggih + reka bentuk bingkai yang indah + model besar berbilang modal. Kami tahu bahawa robot yang berguna sering memerlukan interaksi yang kompleks dan indah dengan alam sekitar, dan persekitaran boleh diwakili sebagai kekangan dalam domain spatial dan temporal. Sebagai contoh, jika anda ingin robot menuang teh, robot terlebih dahulu perlu menggenggam pemegang teko dan memastikannya tegak tanpa menumpahkan teh, kemudian gerakkannya dengan lancar sehingga mulut periuk sejajar dengan mulut cawan. , dan kemudian condongkan teko pada sudut tertentu. ini
