Jadual Kandungan
Kaedah
Rumah Peranti teknologi AI Tajuk yang diutarakan semula ialah: ByteDance dan Kerjasama Universiti Normal China Timur: Meneroka Keupayaan Pembelajaran Kontekstual Model Kecil

Tajuk yang diutarakan semula ialah: ByteDance dan Kerjasama Universiti Normal China Timur: Meneroka Keupayaan Pembelajaran Kontekstual Model Kecil

Nov 26, 2023 pm 08:17 PM
kereta api teks

Adalah diketahui umum bahawa model bahasa besar (LLM) boleh belajar daripada sebilangan kecil contoh melalui pembelajaran kontekstual tanpa memerlukan penalaan halus model. Pada masa ini, fenomena pembelajaran kontekstual ini hanya boleh diperhatikan dalam model besar. Contohnya, model besar seperti GPT-4, Llama, dsb. telah menunjukkan prestasi cemerlang dalam banyak bidang, tetapi disebabkan kekangan sumber atau keperluan masa nyata yang tinggi, model besar tidak boleh digunakan dalam banyak senario

Kemudian, biasa- model bersaiz Adakah anda mempunyai keupayaan ini? Untuk meneroka keupayaan pembelajaran kontekstual model kecil, pasukan penyelidik dari Byte dan East China Normal University menjalankan penyelidikan mengenai tugas pengecaman teks adegan.

Pada masa ini, dalam senario aplikasi sebenar, pengecaman teks adegan menghadapi pelbagai cabaran: adegan berbeza, susun atur teks, ubah bentuk, perubahan pencahayaan, tulisan tangan kabur, kepelbagaian fon, dll., jadi sukar untuk melatih mesin yang boleh mengatasi semua senario Model pengecaman teks bersatu.

Cara langsung untuk menyelesaikan masalah ini ialah dengan mengumpul data yang sepadan dan memperhalusi model dalam senario tertentu. Walau bagaimanapun, proses ini memerlukan latihan semula model, yang intensif secara pengiraan, dan memerlukan penjimatan berbilang berat model untuk menyesuaikan diri dengan senario yang berbeza. Jika model pengecaman teks boleh mempunyai keupayaan pembelajaran konteks, apabila menghadapi adegan baharu, ia hanya memerlukan sejumlah kecil data beranotasi sebagai gesaan untuk meningkatkan prestasinya pada babak baharu, sekali gus menyelesaikan masalah di atas. Walau bagaimanapun, pengecaman teks adegan adalah tugas sensitif sumber, dan menggunakan model besar sebagai pengecam teks akan menggunakan banyak sumber. Melalui pemerhatian percubaan awal, penyelidik mendapati bahawa kaedah latihan model besar tradisional tidak sesuai untuk tugas pengecaman teks adegan

Untuk menyelesaikan masalah ini, pasukan penyelidik dari ByteDance dan East China Normal University mencadangkan pengecam teks yang berkembang sendiri , E2STR (Pengecam Teks Adegan Berkembang Ego). Ini ialah pengecam teks bersaiz biasa yang menggabungkan keupayaan pembelajaran konteks dan boleh menyesuaikan dengan pantas kepada senario pengecaman teks yang berbeza tanpa memerlukan penalaan halus

Tajuk yang diutarakan semula ialah: ByteDance dan Kerjasama Universiti Normal China Timur: Meneroka Keupayaan Pembelajaran Kontekstual Model Kecil

Pautan kertas: https://arxiv.org/pdf/2311.13120 .pdf

E2STR dilengkapi dengan latihan kontekstual dan mod penaakulan kontekstual, yang bukan sahaja mencapai tahap SOTA pada set data konvensional, tetapi juga boleh menggunakan satu model untuk meningkatkan prestasi pengecaman dalam pelbagai senario dan mencapai penyesuaian pantas kepada senario baharu, malah mengatasi prestasi pengiktirafan model khusus selepas penalaan halus. E2STR menunjukkan bahawa model bersaiz biasa adalah mencukupi untuk mencapai keupayaan pembelajaran konteks yang berkesan dalam tugasan pengecaman teks.

Kaedah

Dalam Rajah 1, latihan dan proses inferens E2STR ditunjukkan

Tajuk yang diutarakan semula ialah: ByteDance dan Kerjasama Universiti Normal China Timur: Meneroka Keupayaan Pembelajaran Kontekstual Model Kecil

Pengecaman teks asas1. fasa latihan ion menggunakan autoregresif rangka kerja Tujuan melatih pengekod visual dan penyahkod bahasa adalah untuk mendapatkan keupayaan pengecaman teks:

Tajuk yang diutarakan semula ialah: ByteDance dan Kerjasama Universiti Normal China Timur: Meneroka Keupayaan Pembelajaran Kontekstual Model Kecil

2. Latihan konteks

Latihan konteks lanjutan akan dilatih mengikut E2STR yang dicadangkan. dalam artikel. Pada peringkat ini, E2STR akan belajar memahami perkaitan antara sampel yang berbeza untuk mendapatkan keupayaan penaakulan daripada isyarat kontekstual.

Tajuk yang diutarakan semula ialah: ByteDance dan Kerjasama Universiti Normal China Timur: Meneroka Keupayaan Pembelajaran Kontekstual Model KecilSeperti yang ditunjukkan dalam Rajah 2, artikel ini mencadangkan strategi ST untuk membahagikan dan mengubah data teks adegan secara rawak untuk menjana satu set "subsampel". Subsampel dikaitkan secara intrinsik secara visual dan linguistik. Sampel yang berkaitan secara dalaman ini disambungkan ke dalam urutan, dan model mempelajari pengetahuan kontekstual daripada jujukan yang kaya semantik ini, dengan itu memperoleh keupayaan untuk mempelajari konteks. Peringkat ini juga menggunakan rangka kerja autoregresif untuk latihan:

Isi yang perlu ditulis semula ialah: 3. Penaakulan kontekstual Kandungan yang ditulis semula: 3. Penaakulan berdasarkan konteks

Untuk sampel ujian, rangka kerja memilih N sampel daripada kumpulan isyarat kontekstual yang mempunyai persamaan tertinggi dengan sampel ujian dalam ruang terpendam visual. Secara khusus, artikel ini mengira pembenaman imej I dengan menghimpun purata pada jujukan token visual. Kemudian, sampel N teratas dengan persamaan kosinus tertinggi antara pembenaman imej dan I dipilih daripada kumpulan konteks, sekali gus membentuk isyarat kontekstual.

Tajuk yang diutarakan semula ialah: ByteDance dan Kerjasama Universiti Normal China Timur: Meneroka Keupayaan Pembelajaran Kontekstual Model Kecil

Selepas isyarat kontekstual dan sampel ujian disambungkan bersama dan dimasukkan ke dalam model, E2STR akan mempelajari pengetahuan baharu daripada isyarat kontekstual tanpa latihan, dengan itu meningkatkan ketepatan pengecaman sampel ujian. Adalah penting untuk ambil perhatian bahawa kumpulan kiu kontekstual hanya mengekalkan output token oleh pengekod visual, menjadikan proses pemilihan kiu kontekstual sangat cekap. Selain itu, memandangkan kolam pembayang konteks adalah kecil dan E2STR boleh melakukan inferens tanpa latihan, overhed pengiraan tambahan juga diminimumkan -pengiktirafan pemandangan domain dan pembetulan sampel yang sukar

1. Set data tradisional

Pilih beberapa sampel secara rawak (1000, 0.025% daripada bilangan sampel dalam set latihan) daripada set latihan context prompt pool , ujian telah dijalankan pada 12 set ujian pengecaman teks adegan biasa, dan hasilnya adalah seperti berikut:

Boleh didapati bahawa E2STR masih bertambah baik pada set data tradisional di mana prestasi pengecaman adalah hampir tepu, mengatasi prestasi model SOTA .

Tajuk yang diutarakan semula ialah: ByteDance dan Kerjasama Universiti Normal China Timur: Meneroka Keupayaan Pembelajaran Kontekstual Model KecilKandungan yang perlu ditulis semula ialah: 2. Senario merentas domain

Dalam senario merentas domain, setiap set ujian hanya menyediakan 100 sampel latihan dalam domain antara no dan penalaan halus adalah seperti berikut, E2STR malah melebihi keputusan Penalaan halus kaedah SOTA.

Kandungan yang perlu ditulis semula ialah: 3. Ubah suai sampel yang sukar

Tajuk yang diutarakan semula ialah: ByteDance dan Kerjasama Universiti Normal China Timur: Meneroka Keupayaan Pembelajaran Kontekstual Model Kecil

Pengkaji mengumpul sekumpulan sampel yang sukar dan memberikan 10%~20% penjelasan E.2 Keputusan kaedah pembelajaran konteks tanpa latihan dan kaedah pembelajaran penalaan halus kaedah SOTA adalah seperti berikut:

Berbanding dengan kaedah penalaan halus, E2STR-ICL mengurangkan kadar ralat sampel yang sukar dengan ketara.

Tinjauan Masa DepanTajuk yang diutarakan semula ialah: ByteDance dan Kerjasama Universiti Normal China Timur: Meneroka Keupayaan Pembelajaran Kontekstual Model Kecil

E2STR membuktikan bahawa menggunakan latihan dan strategi inferens yang sesuai, model kecil juga boleh mempunyai keupayaan pembelajaran dalam konteks yang serupa dengan LLM. Dalam sesetengah tugasan dengan keperluan masa nyata yang kukuh, model kecil juga boleh digunakan untuk menyesuaikan diri dengan cepat kepada senario baharu. Lebih penting lagi, kaedah menggunakan model tunggal ini untuk mencapai penyesuaian pantas kepada senario baharu membawa satu langkah lebih dekat untuk membina model kecil yang bersatu dan cekap.

Atas ialah kandungan terperinci Tajuk yang diutarakan semula ialah: ByteDance dan Kerjasama Universiti Normal China Timur: Meneroka Keupayaan Pembelajaran Kontekstual Model Kecil. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
2 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Repo: Cara menghidupkan semula rakan sepasukan
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Adventure: Cara mendapatkan biji gergasi
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Tongyi Qianwen adalah sumber terbuka sekali lagi, Qwen1.5 membawakan enam model volum, dan prestasinya melebihi GPT3.5 Tongyi Qianwen adalah sumber terbuka sekali lagi, Qwen1.5 membawakan enam model volum, dan prestasinya melebihi GPT3.5 Feb 07, 2024 pm 10:15 PM

Pada masanya untuk Festival Musim Bunga, versi 1.5 Model Tongyi Qianwen (Qwen) berada dalam talian. Pagi ini, berita versi baharu itu menarik perhatian komuniti AI. Versi baharu model besar termasuk enam saiz model: 0.5B, 1.8B, 4B, 7B, 14B dan 72B. Antaranya, prestasi versi terkuat mengatasi GPT3.5 dan Mistral-Medium. Versi ini termasuk model Base dan model Sembang, dan menyediakan sokongan berbilang bahasa. Pasukan Tongyi Qianwen Alibaba menyatakan bahawa teknologi yang berkaitan juga telah dilancarkan di laman web rasmi Tongyi Qianwen dan Apl Tongyi Qianwen. Selain itu, keluaran Qwen 1.5 hari ini juga mempunyai sorotan berikut: menyokong panjang konteks 32K membuka pusat pemeriksaan model Base+Chat;

Sumber terbuka! Di luar ZoeDepth! DepthFM: Anggaran kedalaman monokular yang cepat dan tepat! Sumber terbuka! Di luar ZoeDepth! DepthFM: Anggaran kedalaman monokular yang cepat dan tepat! Apr 03, 2024 pm 12:04 PM

0. Apakah fungsi artikel ini? Kami mencadangkan DepthFM: model anggaran kedalaman monokular generatif yang serba boleh dan pantas. Sebagai tambahan kepada tugas anggaran kedalaman tradisional, DepthFM juga menunjukkan keupayaan terkini dalam tugas hiliran seperti mengecat kedalaman. DepthFM cekap dan boleh mensintesis peta kedalaman dalam beberapa langkah inferens. Mari kita baca karya ini bersama-sama ~ 1. Tajuk maklumat kertas: DepthFM: FastMonocularDepthEstimationwithFlowMatching Pengarang: MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

Tinggalkan seni bina pengekod-penyahkod dan gunakan model resapan untuk pengesanan tepi, yang lebih berkesan Universiti Teknologi Pertahanan Nasional mencadangkan DiffusionEdge Tinggalkan seni bina pengekod-penyahkod dan gunakan model resapan untuk pengesanan tepi, yang lebih berkesan Universiti Teknologi Pertahanan Nasional mencadangkan DiffusionEdge Feb 07, 2024 pm 10:12 PM

Rangkaian pengesanan tepi dalam semasa biasanya menggunakan seni bina penyahkod pengekod, yang mengandungi modul pensampelan atas dan bawah untuk mengekstrak ciri berbilang peringkat dengan lebih baik. Walau bagaimanapun, struktur ini mengehadkan rangkaian untuk mengeluarkan hasil pengesanan tepi yang tepat dan terperinci. Sebagai tindak balas kepada masalah ini, kertas kerja mengenai AAAI2024 menyediakan penyelesaian baharu. Tajuk tesis: DiffusionEdge:DiffusionProbabilisticModelforCrispEdgeDetection Penulis: Ye Yunfan (Universiti Teknologi Pertahanan Nasional), Xu Kai (Universiti Teknologi Pertahanan Kebangsaan), Huang Yuxing (Universiti Teknologi Pertahanan Nasional), Yi Renjiao (Universiti Teknologi Pertahanan Nasional), Cai Zhiping (Universiti Teknologi Pertahanan Negara) Pautan kertas: https ://ar

Model besar juga boleh dihiris, dan Microsoft SliceGPT sangat meningkatkan kecekapan pengiraan LLAMA-2 Model besar juga boleh dihiris, dan Microsoft SliceGPT sangat meningkatkan kecekapan pengiraan LLAMA-2 Jan 31, 2024 am 11:39 AM

Model bahasa besar (LLM) biasanya mempunyai berbilion parameter dan dilatih menggunakan trilion token. Walau bagaimanapun, model sedemikian sangat mahal untuk dilatih dan digunakan. Untuk mengurangkan keperluan pengiraan, pelbagai teknik pemampatan model sering digunakan. Teknik pemampatan model ini secara amnya boleh dibahagikan kepada empat kategori: penyulingan, penguraian tensor (termasuk pemfaktoran peringkat rendah), pemangkasan dan kuantisasi. Kaedah pemangkasan telah wujud sejak sekian lama, tetapi banyak yang memerlukan penalaan halus pemulihan (RFT) selepas pemangkasan untuk mengekalkan prestasi, menjadikan keseluruhan proses mahal dan sukar untuk skala. Penyelidik dari ETH Zurich dan Microsoft telah mencadangkan penyelesaian kepada masalah ini yang dipanggil SliceGPT. Idea teras kaedah ini adalah untuk mengurangkan pembenaman rangkaian dengan memadamkan baris dan lajur dalam matriks berat.

Hello, Atlas elektrik! Robot Boston Dynamics hidup semula, gerakan pelik 180 darjah menakutkan Musk Hello, Atlas elektrik! Robot Boston Dynamics hidup semula, gerakan pelik 180 darjah menakutkan Musk Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas secara rasmi memasuki era robot elektrik! Semalam, Atlas hidraulik hanya "menangis" menarik diri daripada peringkat sejarah Hari ini, Boston Dynamics mengumumkan bahawa Atlas elektrik sedang berfungsi. Nampaknya dalam bidang robot humanoid komersial, Boston Dynamics berazam untuk bersaing dengan Tesla. Selepas video baharu itu dikeluarkan, ia telah pun ditonton oleh lebih sejuta orang dalam masa sepuluh jam sahaja. Orang lama pergi dan peranan baru muncul. Ini adalah keperluan sejarah. Tidak dinafikan bahawa tahun ini adalah tahun letupan robot humanoid. Netizen mengulas: Kemajuan robot telah menjadikan majlis pembukaan tahun ini kelihatan seperti manusia, dan tahap kebebasan adalah jauh lebih besar daripada manusia Tetapi adakah ini benar-benar bukan filem seram? Pada permulaan video, Atlas berbaring dengan tenang di atas tanah, seolah-olah terlentang. Apa yang berikut adalah rahang-jatuh

Daya hidup kecerdasan super membangkitkan! Tetapi dengan kedatangan AI yang mengemas kini sendiri, ibu tidak perlu lagi bimbang tentang kesesakan data Daya hidup kecerdasan super membangkitkan! Tetapi dengan kedatangan AI yang mengemas kini sendiri, ibu tidak perlu lagi bimbang tentang kesesakan data Apr 29, 2024 pm 06:55 PM

Saya menangis hingga mati. Dunia sedang membina model besar. Data di Internet tidak mencukupi. Model latihan kelihatan seperti "The Hunger Games", dan penyelidik AI di seluruh dunia bimbang tentang cara memberi makan data ini kepada pemakan yang rakus. Masalah ini amat ketara dalam tugas berbilang modal. Pada masa mereka mengalami kerugian, pasukan pemula dari Jabatan Universiti Renmin China menggunakan model baharu mereka sendiri untuk menjadi yang pertama di China untuk menjadikan "suapan data yang dijana model itu sendiri" menjadi kenyataan. Selain itu, ia merupakan pendekatan serampang dua mata dari segi pemahaman dan sisi penjanaan Kedua-dua pihak boleh menjana data baharu berbilang modal yang berkualiti tinggi dan memberikan maklum balas data kepada model itu sendiri. Apakah model? Awaker 1.0, model berbilang modal besar yang baru sahaja muncul di Forum Zhongguancun. Siapa pasukan itu? Enjin Sophon. Diasaskan oleh Gao Yizhao, pelajar kedoktoran di Sekolah Kecerdasan Buatan Hillhouse Universiti Renmin.

Versi Kuaishou Sora 'Ke Ling' dibuka untuk ujian: menghasilkan video lebih 120-an, memahami fizik dengan lebih baik dan boleh memodelkan pergerakan kompleks dengan tepat Versi Kuaishou Sora 'Ke Ling' dibuka untuk ujian: menghasilkan video lebih 120-an, memahami fizik dengan lebih baik dan boleh memodelkan pergerakan kompleks dengan tepat Jun 11, 2024 am 09:51 AM

Apa? Adakah Zootopia dibawa menjadi realiti oleh AI domestik? Didedahkan bersama-sama dengan video itu ialah model penjanaan video domestik berskala besar baharu yang dipanggil "Keling". Sora menggunakan laluan teknikal yang serupa dan menggabungkan beberapa inovasi teknologi yang dibangunkan sendiri untuk menghasilkan video yang bukan sahaja mempunyai pergerakan yang besar dan munasabah, tetapi juga mensimulasikan ciri-ciri dunia fizikal dan mempunyai keupayaan gabungan konsep dan imaginasi yang kuat. Mengikut data, Keling menyokong penjanaan video ultra panjang sehingga 2 minit pada 30fps, dengan resolusi sehingga 1080p dan menyokong berbilang nisbah aspek. Satu lagi perkara penting ialah Keling bukanlah demo atau demonstrasi hasil video yang dikeluarkan oleh makmal, tetapi aplikasi peringkat produk yang dilancarkan oleh Kuaishou, pemain terkemuka dalam bidang video pendek. Selain itu, tumpuan utama adalah untuk menjadi pragmatik, bukan untuk menulis cek kosong, dan pergi ke dalam talian sebaik sahaja ia dikeluarkan Model besar Ke Ling telah pun dikeluarkan di Kuaiying.

Tentera Udara A.S. mempamerkan jet pejuang AI pertamanya dengan profil tinggi! Menteri secara peribadi menjalankan pandu uji tanpa campur tangan semasa keseluruhan proses, dan 100,000 baris kod telah diuji selama 21 kali. Tentera Udara A.S. mempamerkan jet pejuang AI pertamanya dengan profil tinggi! Menteri secara peribadi menjalankan pandu uji tanpa campur tangan semasa keseluruhan proses, dan 100,000 baris kod telah diuji selama 21 kali. May 07, 2024 pm 05:00 PM

Baru-baru ini, bulatan tentera telah terharu dengan berita: jet pejuang tentera AS kini boleh melengkapkan pertempuran udara automatik sepenuhnya menggunakan AI. Ya, baru-baru ini, jet pejuang AI tentera AS telah didedahkan buat pertama kali, mendedahkan misterinya. Nama penuh pesawat pejuang ini ialah Variable Stability Simulator Test Aircraft (VISTA). Ia diterbangkan sendiri oleh Setiausaha Tentera Udara AS untuk mensimulasikan pertempuran udara satu lawan satu. Pada 2 Mei, Setiausaha Tentera Udara A.S. Frank Kendall berlepas menggunakan X-62AVISTA di Pangkalan Tentera Udara Edwards Ambil perhatian bahawa semasa penerbangan selama satu jam, semua tindakan penerbangan telah diselesaikan secara autonomi oleh AI! Kendall berkata - "Sejak beberapa dekad yang lalu, kami telah memikirkan tentang potensi tanpa had pertempuran udara-ke-udara autonomi, tetapi ia sentiasa kelihatan di luar jangkauan." Namun kini,

See all articles