Rumah > Peranti teknologi > AI > teks badan

Untuk menyelesaikan masalah pembelajaran perwakilan VAE, Universiti Hokkaido mencadangkan model generatif baharu GWAE

王林
Lepaskan: 2023-04-07 17:47:33
ke hadapan
1752 orang telah melayarinya

Mempelajari perwakilan berdimensi rendah bagi data berdimensi tinggi adalah tugas asas dalam pembelajaran tanpa penyeliaan kerana perwakilan tersebut secara ringkas menangkap intipati data dan membolehkan pelaksanaan berdasarkan input berdimensi rendah tugas hiliran adalah mungkin. Pengekod auto variasi (VAE) ialah kaedah pembelajaran perwakilan yang penting, namun disebabkan pembelajaran perwakilan kawalan objektifnya masih merupakan tugas yang mencabar. Walaupun matlamat evidens lower bound (ELBO) VAE dimodelkan secara generatif, perwakilan pembelajaran tidak disasarkan secara langsung pada matlamat ini, yang memerlukan pengubahsuaian khusus kepada tugas pembelajaran perwakilan, seperti pengasingan. Pengubahsuaian ini kadangkala membawa kepada perubahan tersirat dan tidak diingini dalam model, menjadikan pembelajaran perwakilan terkawal sebagai tugas yang mencabar.

Untuk menyelesaikan masalah pembelajaran perwakilan dalam autoenkoder variasi, kertas kerja ini mencadangkan model generatif baharu yang dipanggil Gromov-Wasserstein Autoencoders (GWAE). GWAE menyediakan rangka kerja baharu untuk pembelajaran perwakilan berdasarkan seni bina model pengekod auto variasi (VAE). Tidak seperti kaedah pembelajaran perwakilan berasaskan VAE tradisional untuk pemodelan generatif pembolehubah data, GWAE memperoleh perwakilan yang bermanfaat melalui pemindahan optimum antara data dan pembolehubah terpendam. Metrik Gromov-Wasserstein (GW) membolehkan pemindahan optimum sedemikian antara pembolehubah yang tidak dapat dibandingkan (cth. pembolehubah dengan dimensi berbeza), yang memfokuskan pada struktur jarak pembolehubah yang sedang dipertimbangkan. Dengan menggantikan objektif ELBO dengan metrik GW, GWAE melakukan perbandingan antara data dan ruang terpendam, secara langsung menyasarkan pembelajaran perwakilan dalam pengekod auto variasi (Rajah 1). Rumusan pembelajaran perwakilan ini membolehkan perwakilan yang dipelajari mempunyai sifat khusus yang dianggap bermanfaat (cth., kebolehuraian), yang dipanggil meta-prior.

Untuk menyelesaikan masalah pembelajaran perwakilan VAE, Universiti Hokkaido mencadangkan model generatif baharu GWAE

Rajah 1 Perbezaan antara VAE dan GWAE

Kajian ini telah setakat ini Diterima oleh ICLR 2023.

  • Pautan kertas: https://arxiv.org/abs/2209.07007
  • Pautan kod: https://github.com/ganmodokix/gwae

Pengenalan kaedah

Antara pengedaran data dan potensi pengedaran terdahulu The GW sasaran ditakrifkan seperti berikut:

Untuk menyelesaikan masalah pembelajaran perwakilan VAE, Universiti Hokkaido mencadangkan model generatif baharu GWAE

Formula kos penghantaran optimum ini boleh mengukur ketidakkonsistenan pengagihan dalam ruang yang tiada tandingannya, bagaimanapun, untuk pengagihan berterusan; adalah tidak praktikal untuk mengira nilai GW yang tepat kerana keperluan untuk mengikat bawah semua gandingan. Untuk menyelesaikan masalah ini, GWAE menyelesaikan masalah pengoptimuman yang santai untuk menganggar dan meminimumkan penganggar GW, yang kecerunannya boleh dikira dengan pembezaan automatik. Sasaran kelonggaran ialah jumlah anggaran metrik GW dan tiga kerugian regularisasi, yang semuanya boleh dilaksanakan dalam rangka kerja pengaturcaraan yang boleh dibezakan seperti PyTorch. Objektif kelonggaran ini terdiri daripada kerugian utama dan tiga kerugian regularisasi, iaitu anggaran kehilangan GW utama, kerugian pembinaan semula berasaskan WAE, kerugian keadaan mencukupi yang digabungkan, dan kerugian regularisasi entropi.

Skim ini juga boleh menyesuaikan pengedaran terdahulu secara fleksibel untuk memperkenalkan ciri berfaedah ke dalam perwakilan dimensi rendah. Secara khusus, makalah itu memperkenalkan tiga populasi terdahulu, iaitu:

Neural Priori (NP) Dalam GWAE dengan NP , rangkaian neural yang bersambung sepenuhnya digunakan untuk membina pensampel priori. Keluarga taburan terdahulu ini membuat lebih sedikit andaian tentang pembolehubah asas dan sesuai untuk situasi umum.

Factorized Neural Prior (FNP)Dalam GWAE dengan FNP, gunakan prior neural yang disambungkan secara setempat Rangkaian membina pensampel di mana entri untuk setiap pembolehubah terpendam dijana secara bebas. Pensampel ini menghasilkan perwakilan bebas sebelum berfaktor dan perwakilan bebas mengikut istilah, yang merupakan kaedah yang menonjol untuk pembongkaran meta-dahulu perwakilan.

Gaussian Mixture Prior (GMP) Dalam GMP, ia ditakrifkan sebagai campuran beberapa taburan Gaussian, dan pensampelnya boleh menggunakan berat Teknik parameterisasi dan teknik Gumbel-Max dilaksanakan. GMP membenarkan kluster dihipotesiskan dalam perwakilan, di mana setiap komponen Gaussian sebelumnya dijangka menangkap kluster.

Eksperimen dan keputusan

Kajian ini menjalankan penilaian empirikal GWAE dengan dua meta-prior utama : Keterjeratan Penyelesaian dan pengelompokan .

Penyelesaian Kajian menggunakan set data Bentuk 3D dan metrik DCI untuk mengukur keupayaan penguraian GWAE. Keputusan menunjukkan bahawa GWAE menggunakan FNP dapat mempelajari faktor rona objek pada paksi tunggal, yang menunjukkan keupayaan penguraian GWAE. Penilaian kuantitatif juga menunjukkan prestasi penguraian GWAE.

Untuk menyelesaikan masalah pembelajaran perwakilan VAE, Universiti Hokkaido mencadangkan model generatif baharu GWAE

Pengelompokkan Untuk menilai perwakilan yang diperolehi berdasarkan pengelompokan meta-prioris, kajian ini menjalankan Out-of -Pengesanan pengedaran (OoD). Dataset MNIST digunakan sebagai data In-Distribution (ID) dan dataset Omniglot digunakan sebagai data OoD. Walaupun MNIST mengandungi nombor tulisan tangan, Omniglot mengandungi huruf tulisan tangan dengan huruf yang berbeza. Dalam percubaan ini, set data ID dan OoD berkongsi domain imej tulisan tangan, tetapi ia mengandungi aksara yang berbeza. Model dilatih tentang data ID dan kemudian menggunakan perwakilan yang dipelajari untuk mengesan data ID atau OoD. Dalam VAE dan DAGMM, pembolehubah yang digunakan untuk pengesanan OoD ialah kemungkinan log terdahulu, manakala dalam GWAE ia adalah potensi Kantorovich. Sebelum untuk GWAE telah dibina menggunakan GMP untuk menangkap kelompok MNIST. Lengkung ROC menunjukkan prestasi pengesanan OoD model, dengan ketiga-tiga model mencapai prestasi hampir sempurna walau bagaimanapun, GWAE yang dibina menggunakan GMP menunjukkan prestasi terbaik dari segi kawasan di bawah lengkung (AUC).

Untuk menyelesaikan masalah pembelajaran perwakilan VAE, Universiti Hokkaido mencadangkan model generatif baharu GWAE

Selain itu, kajian ini menilai keupayaan generatif GWAE.

Prestasi sebagai model generatif berasaskan pengekod auto Untuk menilai keupayaan GWAE mengendalikan kes umum tanpa meta-prior tertentu, data CelebA telah digunakan Set prestasi penjanaan dinilai. Percubaan menggunakan FID untuk menilai prestasi generatif model dan PSNR untuk menilai prestasi pengekodan auto. GWAE mencapai prestasi generatif kedua terbaik dan prestasi autopengekodan terbaik menggunakan NP, menunjukkan keupayaannya untuk menangkap pengedaran data dalam modelnya dan menangkap maklumat data dalam perwakilannya.

Untuk menyelesaikan masalah pembelajaran perwakilan VAE, Universiti Hokkaido mencadangkan model generatif baharu GWAE

Ringkasan

  • GWAE ialah model generatif autoenkoder variasi yang dibina berdasarkan metrik Gromov-Wasserstein, bertujuan untuk Mengarahkan pembelajaran perwakilan.
  • Memandangkan prior hanya memerlukan sampel yang boleh dibezakan, pelbagai tetapan pengedaran terdahulu boleh dibina untuk menganggap meta-prior (sifat ideal bagi perwakilan).
  • Eksperimen pada meta-prior utama dan penilaian prestasi sebagai pengekod auto variasi menunjukkan fleksibiliti perumusan GWAE dan keupayaan pembelajaran perwakilan GWAE.
  • Laman utama peribadi pengarang pertama Nao Nakagawa: https://ganmodokix.com/note/cv
  • Laman utama Makmal Multimedia Universiti Hokkaido: https://www-lmd.ist.hokudai.ac.jp/

Atas ialah kandungan terperinci Untuk menyelesaikan masalah pembelajaran perwakilan VAE, Universiti Hokkaido mencadangkan model generatif baharu GWAE. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:51cto.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan