


Satu lagi revolusi dalam pembelajaran pengukuhan! DeepMind mencadangkan 'penyulingan algoritma': Transformer pembelajaran tetulang pra-latihan yang boleh diterokai
Dalam tugas pemodelan jujukan semasa, Transformer boleh dikatakan sebagai seni bina rangkaian saraf yang paling berkuasa, dan model Transformer yang telah terlatih boleh menggunakan gesaan sebagai syarat atau pembelajaran dalam konteks untuk menyesuaikan diri dengan situasi yang berbeza .
Keupayaan generalisasi model Transformer pra-latihan berskala besar telah disahkan dalam pelbagai bidang, seperti pelengkapan teks, pemahaman bahasa, penjanaan imej, dsb.
Sejak tahun lepas, terdapat kerja yang relevan membuktikan bahawa dengan menganggap pembelajaran peneguhan luar talian (luar talian RL) sebagai masalah ramalan jujukan, maka model Dasar boleh dipelajari daripada data luar talian.
Tetapi kaedah semasa sama ada mempelajari dasar daripada data yang tidak mengandungi pembelajaran (seperti dasar pakar yang ditetapkan melalui penyulingan), atau daripada data yang mengandungi pembelajaran (seperti mengangkat berat ejen). penampan), tetapi konteksnya terlalu kecil untuk menangkap penambahbaikan dasar.
Penyelidik DeepMind menemui melalui pemerhatian bahawa pada dasarnya sifat pembelajaran yang berurutan dalam latihan algoritma pembelajaran pengukuhan boleh mengubah peneguhan menjadi Pembelajaran proses itu sendiri dimodelkan sebagai "masalah ramalan jujukan sebab" .
Khususnya, jika konteks Transformer cukup panjang untuk memasukkan penambahbaikan dasar disebabkan oleh kemas kini pembelajaran, ia bukan sahaja boleh mewakili dasar tetap, tetapi juga boleh keadaan, tindakan dan ganjaran episod sebelumnya diwakili sebagai pengendali penambahbaikan dasar.
Ini juga menyediakan kemungkinan teknikal bahawa mana-mana algoritma RL boleh disuling menjadi model jujukan yang cukup berkuasa melalui pembelajaran tiruan dan diubah menjadi algoritma RL dalam konteks.
Berdasarkan perkara ini, DeepMind mencadangkan Penyulingan Algoritma (AD), yang mengekstrak algoritma pembelajaran tetulang ke dalam rangkaian saraf dengan mewujudkan model jujukan sebab.
Pautan kertas: https://arxiv.org/pdf/2210.14215.pdf
Penyulingan algoritma menganggap pembelajaran pengukuhan pembelajaran sebagai masalah ramalan jujukan episod merentas, menjana set data sejarah pembelajaran melalui algoritma RL sumber, dan kemudian menggunakan sejarah pembelajaran sebagai konteks untuk melatih Transformer penyebab melalui autoregresif tingkah laku ramalan.
Tidak seperti struktur ramalan dasar pasca pembelajaran atau jujukan jujukan pakar, AD dapat memperbaik dasarnya sepenuhnya dalam konteks tanpa mengemas kini parameter rangkaiannya.
- Transfomer mengumpul datanya sendiri dan memaksimumkan ganjaran untuk tugasan baharu;
- Dengan pemberat dibekukan, Transformer boleh meneroka, mengeksploitasi dan memaksimumkan pemulangan konteks! Kaedah Penyulingan Pakar seperti Gato tidak dapat meneroka dan tidak dapat memaksimumkan pulangan.
- Hasil eksperimen membuktikan bahawa AD boleh melaksanakan pembelajaran pengukuhan dalam pelbagai persekitaran dengan ganjaran yang jarang, struktur tugas gabungan dan pemerhatian berasaskan piksel, dan kecekapan data pembelajaran AD ( cekap data) daripada algoritma RL yang menjana data sumber.
AD juga merupakan pertama yang menunjukkan pembelajaran peneguhan dalam konteks melalui pemodelan jujukan data luar talian dengan kehilangan tiruan.
Penyulingan AlgoritmaPada tahun 2021, beberapa penyelidik mula-mula mendapati bahawa Transformer boleh mempelajari dasar satu tugasan daripada data RL luar talian melalui pembelajaran tiruan, dan kemudiannya diperluaskan untuk menjadi mampu Mengekstrak strategi berbilang tugas dalam tetapan domain yang sama dan merentas domain.
Kerja-kerja ini mencadangkan paradigma yang menjanjikan untuk mengekstrak strategi berbilang tugas umum: mula-mula kumpulkan sejumlah besar set data interaksi persekitaran yang berbeza, dan kemudian ekstrak satu daripada data melalui Strategi pemodelan jujukan.Kaedah pembelajaran dasar daripada data RL luar talian melalui pembelajaran tiruan juga dipanggil penyulingan dasar luar talian, atau ringkasnya Penyulingan Dasar (PD) . Walaupun idea PD adalah sangat mudah dan sangat mudah untuk diperluaskan, PD mempunyai kelemahan utama: strategi yang dihasilkan tidak bertambah baik daripada interaksi tambahan dengan persekitaran. Sebagai contoh, MultiGame Decision Transformer (MGDT) mempelajari dasar bersyarat pulangan yang boleh memainkan sejumlah besar permainan Atari, manakala Gato mempelajari dasar bersyarat dalam Strategi untuk menyelesaikan tugasan dalam persekitaran yang berbeza, tetapi kedua-dua pendekatan tidak boleh memperbaiki strateginya melalui percubaan dan kesilapan. MGDT menyesuaikan pengubah kepada tugas baharu dengan memperhalusi berat model, manakala Gato memerlukan petua demonstrasi pakar untuk menyesuaikan diri dengan tugas baharu. Ringkasnya, kaedah Penyulingan Dasar mempelajari dasar dan bukannya algoritma pembelajaran pengukuhan. Para penyelidik membuat hipotesis bahawa sebab Penyulingan Polisi tidak boleh bertambah baik melalui percubaan dan kesilapan adalah kerana ia dilatih pada data yang tidak menunjukkan kemajuan pembelajaran. Penyulingan Algoritma (AD) ialah kaedah pembelajaran pengendali penambahbaikan dasar intrinsik dengan mengoptimumkan kehilangan ramalan jujukan sebab dalam sejarah pembelajaran algoritma RL. IKLAN termasuk dua komponen: 1 Dengan menyimpan Latihan sejarah algoritma RL pada banyak tugasan berasingan menjana set data berbilang tugas yang besar; Oleh kerana dasar itu terus bertambah baik sepanjang proses latihan algoritma RL sumber, AD mesti belajar cara menambah baik pengendali untuk mensimulasikan tindakan dengan tepat pada mana-mana titik tertentu dalam latihan sejarah. Paling penting, saiz konteks Transformer mestilah cukup besar (iaitu merentas zaman) untuk menangkap peningkatan dalam data latihan.
Dalam bahagian percubaan, untuk meneroka kelebihan AD dalam keupayaan RL dalam konteks, penyelidik menumpukan pada ketidakupayaan untuk melepasi sifar selepas pra-latihan -shot membuat generalisasi untuk menyelesaikan persekitaran di mana setiap persekitaran diperlukan untuk menyokong pelbagai tugas dan model tidak boleh membuat kesimpulan dengan mudah penyelesaian kepada tugasan daripada pemerhatian. Pada masa yang sama, episod perlu cukup pendek supaya Transformers bersebab merentas episod boleh dilatih.
Seperti yang dapat dilihat dalam keputusan eksperimen bagi empat persekitaran Adversarial Bandit, Bilik Gelap, Kunci-ke-Pintu Gelap dan Watermaze DMLab, melalui algoritma RL berasaskan Gradien tiruan, menggunakan Transformer sebab dengan konteks yang cukup besar, AD boleh mengukuhkan pembelajaran tugasan baharu sepenuhnya dalam konteks.
AD boleh melakukan penerokaan dalam konteks, peruntukan kredit temporal dan generalisasi Algoritma pembelajaran AD adalah lebih baik daripada sumber latihan Transformer algoritma adalah lebih cekap data. Penjelasan PPT
Eksperimen pada penyulingan algoritma menunjukkan bahawa Transformer boleh menambah baik model secara autonomi melalui percubaan dan ralat tanpa mengemas kini pemberat, gesaan atau penalaan halus. Satu Transformer boleh mengumpul datanya sendiri dan memaksimumkan ganjaran untuk tugasan baharu. Walaupun terdapat banyak model yang berjaya menunjukkan cara Transformer belajar dalam konteks, Transformer masih belum terbukti dapat mengukuhkan pembelajaran dalam konteks. Untuk menyesuaikan diri dengan tugasan baharu, pembangun sama ada perlu menentukan pembayang atau melaraskan model secara manual. Bukankah bagus jika Transformer dapat menyesuaikan diri dengan pembelajaran pengukuhan dan digunakan di luar kotak? Tetapi Decision Transformers atau Gato hanya boleh mempelajari strategi daripada data luar talian dan tidak boleh menambah baik secara automatik melalui percubaan berulang. Transformer yang dijana menggunakan kaedah pra-latihan penyulingan algoritmik (AD) boleh melaksanakan pembelajaran pengukuhan dalam konteks. Mula-mula latih berbilang salinan algoritma pembelajaran pengukuhan untuk menyelesaikan tugasan yang berbeza dan menyimpan sejarah pembelajaran. Setelah set data sejarah pembelajaran dikumpul, Transformer boleh dilatih untuk meramalkan tindakan sejarah pembelajaran sebelumnya. Memandangkan dasar telah bertambah baik dari segi sejarah, meramalkan tindakan dengan tepat akan memaksa Transformer untuk memodelkan penambahbaikan dasar. Keseluruhan prosesnya begitu mudah sahaja dengan meniru tindakan Tiada nilai Q seperti yang digunakan dalam model pembelajaran pengukuhan biasa. dan tidak ada yang panjang Urutan operasi-tindakan-ganjaran juga tidak mempunyai syarat pulangan seperti DT. Dalam konteks, pembelajaran pengukuhan tidak mempunyai overhed tambahan, dan model tersebut kemudiannya dinilai dengan memerhati sama ada AD boleh memaksimumkan ganjaran untuk tugasan baharu. Semasa Transformer meneroka, mengeksploitasi dan memaksimumkan pulangan dalam konteks, pemberatnya dibekukan! Penyulingan Pakar (paling serupa dengan Gato), sebaliknya, tidak boleh meneroka atau memaksimumkan ganjaran. AD boleh mengekstrak mana-mana algoritma RL Para penyelidik mencuba UCB dan DQNA2C Satu penemuan yang menarik ialah dalam pembelajaran algoritma RL kontekstual, AD Lebih cekap data . Pengguna juga boleh memasukkan gesaan dan demo suboptimum, dan model akan menambah baik strategi secara automatik sehingga penyelesaian optimum diperoleh! Walau bagaimanapun, Expert Distillation ED hanya boleh mengekalkan prestasi demo yang tidak optimum. Konteks RL hanya akan muncul apabila konteks Transformer cukup panjang untuk menjangkau berbilang episod. AD memerlukan sejarah yang cukup panjang untuk melaksanakan penambahbaikan model dan tugas pengenalpastian yang berkesan. Melalui eksperimen, penyelidik membuat kesimpulan berikut:
Atas ialah kandungan terperinci Satu lagi revolusi dalam pembelajaran pengukuhan! DeepMind mencadangkan 'penyulingan algoritma': Transformer pembelajaran tetulang pra-latihan yang boleh diterokai. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



0. Apakah fungsi artikel ini? Kami mencadangkan DepthFM: model anggaran kedalaman monokular generatif yang serba boleh dan pantas. Sebagai tambahan kepada tugas anggaran kedalaman tradisional, DepthFM juga menunjukkan keupayaan terkini dalam tugas hiliran seperti mengecat kedalaman. DepthFM cekap dan boleh mensintesis peta kedalaman dalam beberapa langkah inferens. Mari kita baca karya ini bersama-sama ~ 1. Tajuk maklumat kertas: DepthFM: FastMonocularDepthEstimationwithFlowMatching Pengarang: MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

Rangkaian pengesanan tepi dalam semasa biasanya menggunakan seni bina penyahkod pengekod, yang mengandungi modul pensampelan atas dan bawah untuk mengekstrak ciri berbilang peringkat dengan lebih baik. Walau bagaimanapun, struktur ini mengehadkan rangkaian untuk mengeluarkan hasil pengesanan tepi yang tepat dan terperinci. Sebagai tindak balas kepada masalah ini, kertas kerja mengenai AAAI2024 menyediakan penyelesaian baharu. Tajuk tesis: DiffusionEdge:DiffusionProbabilisticModelforCrispEdgeDetection Penulis: Ye Yunfan (Universiti Teknologi Pertahanan Nasional), Xu Kai (Universiti Teknologi Pertahanan Kebangsaan), Huang Yuxing (Universiti Teknologi Pertahanan Nasional), Yi Renjiao (Universiti Teknologi Pertahanan Nasional), Cai Zhiping (Universiti Teknologi Pertahanan Negara) Pautan kertas: https ://ar

Pada masanya untuk Festival Musim Bunga, versi 1.5 Model Tongyi Qianwen (Qwen) berada dalam talian. Pagi ini, berita versi baharu itu menarik perhatian komuniti AI. Versi baharu model besar termasuk enam saiz model: 0.5B, 1.8B, 4B, 7B, 14B dan 72B. Antaranya, prestasi versi terkuat mengatasi GPT3.5 dan Mistral-Medium. Versi ini termasuk model Base dan model Sembang, dan menyediakan sokongan berbilang bahasa. Pasukan Tongyi Qianwen Alibaba menyatakan bahawa teknologi yang berkaitan juga telah dilancarkan di laman web rasmi Tongyi Qianwen dan Apl Tongyi Qianwen. Selain itu, keluaran Qwen 1.5 hari ini juga mempunyai sorotan berikut: menyokong panjang konteks 32K membuka pusat pemeriksaan model Base+Chat;

Model bahasa besar (LLM) biasanya mempunyai berbilion parameter dan dilatih menggunakan trilion token. Walau bagaimanapun, model sedemikian sangat mahal untuk dilatih dan digunakan. Untuk mengurangkan keperluan pengiraan, pelbagai teknik pemampatan model sering digunakan. Teknik pemampatan model ini secara amnya boleh dibahagikan kepada empat kategori: penyulingan, penguraian tensor (termasuk pemfaktoran peringkat rendah), pemangkasan dan kuantisasi. Kaedah pemangkasan telah wujud sejak sekian lama, tetapi banyak yang memerlukan penalaan halus pemulihan (RFT) selepas pemangkasan untuk mengekalkan prestasi, menjadikan keseluruhan proses mahal dan sukar untuk skala. Penyelidik dari ETH Zurich dan Microsoft telah mencadangkan penyelesaian kepada masalah ini yang dipanggil SliceGPT. Idea teras kaedah ini adalah untuk mengurangkan pembenaman rangkaian dengan memadamkan baris dan lajur dalam matriks berat.

Boston Dynamics Atlas secara rasmi memasuki era robot elektrik! Semalam, Atlas hidraulik hanya "menangis" menarik diri daripada peringkat sejarah Hari ini, Boston Dynamics mengumumkan bahawa Atlas elektrik sedang berfungsi. Nampaknya dalam bidang robot humanoid komersial, Boston Dynamics berazam untuk bersaing dengan Tesla. Selepas video baharu itu dikeluarkan, ia telah pun ditonton oleh lebih sejuta orang dalam masa sepuluh jam sahaja. Orang lama pergi dan peranan baru muncul. Ini adalah keperluan sejarah. Tidak dinafikan bahawa tahun ini adalah tahun letupan robot humanoid. Netizen mengulas: Kemajuan robot telah menjadikan majlis pembukaan tahun ini kelihatan seperti manusia, dan tahap kebebasan adalah jauh lebih besar daripada manusia Tetapi adakah ini benar-benar bukan filem seram? Pada permulaan video, Atlas berbaring dengan tenang di atas tanah, seolah-olah terlentang. Apa yang berikut adalah rahang-jatuh

Apa? Adakah Zootopia dibawa menjadi realiti oleh AI domestik? Didedahkan bersama-sama dengan video itu ialah model penjanaan video domestik berskala besar baharu yang dipanggil "Keling". Sora menggunakan laluan teknikal yang serupa dan menggabungkan beberapa inovasi teknologi yang dibangunkan sendiri untuk menghasilkan video yang bukan sahaja mempunyai pergerakan yang besar dan munasabah, tetapi juga mensimulasikan ciri-ciri dunia fizikal dan mempunyai keupayaan gabungan konsep dan imaginasi yang kuat. Mengikut data, Keling menyokong penjanaan video ultra panjang sehingga 2 minit pada 30fps, dengan resolusi sehingga 1080p dan menyokong berbilang nisbah aspek. Satu lagi perkara penting ialah Keling bukanlah demo atau demonstrasi hasil video yang dikeluarkan oleh makmal, tetapi aplikasi peringkat produk yang dilancarkan oleh Kuaishou, pemain terkemuka dalam bidang video pendek. Selain itu, tumpuan utama adalah untuk menjadi pragmatik, bukan untuk menulis cek kosong, dan pergi ke dalam talian sebaik sahaja ia dikeluarkan Model besar Ke Ling telah pun dikeluarkan di Kuaiying.

Saya menangis hingga mati. Dunia sedang membina model besar. Data di Internet tidak mencukupi. Model latihan kelihatan seperti "The Hunger Games", dan penyelidik AI di seluruh dunia bimbang tentang cara memberi makan data ini kepada pemakan yang rakus. Masalah ini amat ketara dalam tugas berbilang modal. Pada masa mereka mengalami kerugian, pasukan pemula dari Jabatan Universiti Renmin China menggunakan model baharu mereka sendiri untuk menjadi yang pertama di China untuk menjadikan "suapan data yang dijana model itu sendiri" menjadi kenyataan. Selain itu, ia merupakan pendekatan serampang dua mata dari segi pemahaman dan sisi penjanaan Kedua-dua pihak boleh menjana data baharu berbilang modal yang berkualiti tinggi dan memberikan maklum balas data kepada model itu sendiri. Apakah model? Awaker 1.0, model berbilang modal besar yang baru sahaja muncul di Forum Zhongguancun. Siapa pasukan itu? Enjin Sophon. Diasaskan oleh Gao Yizhao, pelajar kedoktoran di Sekolah Kecerdasan Buatan Hillhouse Universiti Renmin.

Pada April tahun lepas, penyelidik dari Universiti Wisconsin-Madison, Penyelidikan Microsoft dan Universiti Columbia bersama-sama mengeluarkan LLaVA (Pembantu Bahasa dan Penglihatan Besar). Walaupun LLaVA hanya dilatih dengan set data arahan berbilang modal yang kecil, ia menunjukkan keputusan inferens yang hampir sama dengan GPT-4 pada beberapa sampel. Kemudian pada bulan Oktober, mereka melancarkan LLaVA-1.5, yang menyegarkan SOTA dalam 11 penanda aras dengan pengubahsuaian mudah kepada LLaVA asal. Hasil peningkatan ini sangat mengujakan, membawa kejayaan baharu kepada bidang pembantu AI berbilang modal. Pasukan penyelidik mengumumkan pelancaran versi LLaVA-1.6, menyasarkan penaakulan, OCR dan
