Rumah Peranti teknologi AI Tajuk baharu: Meta menambah baik seni bina Transformer: mekanisme perhatian baharu yang meningkatkan keupayaan penaakulan

Tajuk baharu: Meta menambah baik seni bina Transformer: mekanisme perhatian baharu yang meningkatkan keupayaan penaakulan

Nov 24, 2023 pm 02:53 PM
Model kereta api

Kekuatan model bahasa besar (LLM) adalah fakta yang tidak diragui, tetapi mereka masih kadangkala melakukan kesilapan mudah, menunjukkan keupayaan penaakulan mereka yang lemah

#🎜🎜 #Sebagai contoh, LLM mungkin membuat pertimbangan yang salah disebabkan oleh konteks yang tidak relevan atau keutamaan atau pendapat yang wujud dalam gesaan input. Situasi terakhir menimbulkan masalah yang dikenali sebagai "sycophancy", di mana model kekal konsisten dengan input Adakah terdapat sebarang cara untuk mengurangkan jenis masalah ini? Sesetengah sarjana cuba menyelesaikannya dengan menambahkan lebih banyak data latihan yang diselia atau strategi pembelajaran pengukuhan, tetapi kaedah ini tidak dapat menyelesaikan masalah secara asas

Dalam kajian baru-baru ini, penyelidik Meta menegaskan bahawa terdapat masalah asas dalam cara model Transformer itu sendiri dibina, terutamanya mekanisme perhatiannya. Dalam erti kata lain, perhatian lembut cenderung untuk memberikan kebarangkalian kepada kebanyakan konteks (termasuk bahagian yang tidak relevan) dan terlalu menumpukan pada token berulang

Oleh itu, penyelidik Pendekatan yang sama sekali berbeza terhadap mekanisme perhatian dicadangkan, iaitu melakukan perhatian dengan menggunakan LLM sebagai penaakulan bahasa semula jadi. Khususnya, mereka memanfaatkan keupayaan LLM untuk mengikut arahan yang menggesa mereka menjana konteks yang harus mereka fokuskan, supaya mereka hanya memasukkan bahan berkaitan yang tidak memesongkan alasan mereka sendiri. Para penyelidik memanggil proses ini Sistem 2 Perhatian (S2A), dan mereka melihat pengubah asas dan mekanisme perhatiannya sebagai operasi automatik yang serupa dengan penaakulan Sistem 1 manusia #Apabila orang memerlukan perhatian khusus pada tugas dan Sistem 1 mungkin membuat ralat , Sistem 2 memperuntukkan aktiviti mental yang berat dan mengambil alih kerja manusia. Oleh itu, subsistem ini mempunyai matlamat yang sama dengan S2A yang dicadangkan oleh penyelidik, yang berharap dapat mengurangkan kegagalan perhatian lembut transformer yang disebutkan di atas melalui kerja enjin inferens tambahan. perlu ditulis semula ialah: Pautan kertas: https://arxiv.org/pdf/2311.11829.pdf

#🎜🎜 #Pengkaji menerangkan secara terperinci kategori, motivasi dan beberapa spesifik pelaksanaan mekanisme S2A. Semasa fasa percubaan, mereka mengesahkan bahawa S2A boleh menghasilkan LLM yang lebih objektif dan kurang bias subjektif atau sanjungan daripada LLM berasaskan perhatian standard

terutama apabila soalan mengandungi Pada set data TriviQA yang diubah suai bagi pendapat yang mengganggu, berbanding dengan LLaMA-2-70B-chat, S2A meningkatkan fakta daripada 62.8% kepada 80.3% dalam tugas penjanaan parameter bentuk panjang yang mengandungi emosi input yang mengganggu, Objektiviti S2A dipertingkatkan dengan; 57.4% dan sebahagian besarnya tidak terjejas oleh sudut pandangan yang disisipkan. Di samping itu, untuk masalah perkataan matematik dengan ayat tidak relevan dalam GSM-IC, S2A meningkatkan ketepatan daripada 51.7% kepada 61.3%.

Kajian ini disyorkan oleh Yann LeCun.

Tajuk baharu: Meta menambah baik seni bina Transformer: mekanisme perhatian baharu yang meningkatkan keupayaan penaakulan

Perhatian Sistem 2

#🎜🎜 di bawah Satu contoh pseudo-korelasi ditunjukkan. Malah LLM yang paling berkuasa boleh menukar jawapan kepada soalan fakta mudah apabila konteks mengandungi ayat yang tidak relevan, kerana perkataan yang muncul dalam konteks secara tidak sengaja meningkatkan kebarangkalian jawapan yang salah

# 🎜🎜#

#🎜 🎜# Oleh itu, kita perlu mengkaji mekanisme perhatian yang lebih difahami dan lebih bernas. Untuk membezakannya daripada mekanisme perhatian peringkat rendah, para penyelidik mencadangkan sistem yang dipanggil S2A. Mereka meneroka cara untuk memanfaatkan LLM sendiri untuk membina mekanisme perhatian ini, secara khusus melaraskan LLM dengan mengalih keluar teks yang tidak berkaitan untuk menulis semula arahan kontekstual #Dengan pendekatan ini, LLM dapat membuat alasan dengan teliti dan membuat keputusan tentang bahagian input yang berkaitan sebelum menjana a tindak balas. Satu lagi kelebihan LLM menggunakan pelarasan arahan ialah ia boleh mengawal fokus perhatian, yang agak serupa dengan cara manusia mengawal perhatian mereka

S2A merangkumi dua langkah :.

  • Memandangkan konteks x, S2A mula-mula menjana semula konteks x', dengan itu mengalih keluar bahagian konteks yang tidak berkaitan yang akan memberi kesan buruk kepada output. Rencana ini menyatakannya sebagai x ′ ∼ S2A (x).
  • Diberi x ′ , tindak balas akhir LLM kemudiannya dijana menggunakan konteks yang dijana semula dan bukannya konteks asal: y ∼ LLM (x ′ ).

Tajuk baharu: Meta menambah baik seni bina Transformer: mekanisme perhatian baharu yang meningkatkan keupayaan penaakulan

Pelaksanaan dan variasi alternatif#🎜🎜🎜🎜🎜 🎜#Dalam artikel ini kita melihat beberapa versi berbeza pendekatan S2A

tanpa konteks dan pemisahan masalah. Dalam pelaksanaan Rajah 2, kami memilih untuk menjana semula konteks yang diuraikan kepada dua bahagian (konteks dan soalan). Rajah 12 menunjukkan variasi gesaan ini.

Tajuk baharu: Meta menambah baik seni bina Transformer: mekanisme perhatian baharu yang meningkatkan keupayaan penaakulanKekalkan konteks asal dalam S2A, selepas menjana semula konteks, ia harus mengandungi semua elemen perlu yang sepatutnya menyatakan, Model kemudian bertindak balas hanya pada konteks yang dijana semula, konteks asal dibuang. Rajah 14 menunjukkan variasi gesaan ini.

Tajuk baharu: Meta menambah baik seni bina Transformer: mekanisme perhatian baharu yang meningkatkan keupayaan penaakulanGesaan penting. Gesaan S2A yang diberikan dalam Rajah 2 menggalakkan penyingkiran teks berpandangan daripada konteks dan memerlukan respons yang tidak berpandangan menggunakan arahan dalam langkah 2 (Rajah 13).

Tajuk baharu: Meta menambah baik seni bina Transformer: mekanisme perhatian baharu yang meningkatkan keupayaan penaakulanS2A pelaksanaan semuanya menekankan konteks penjanaan semula untuk meningkatkan objektiviti dan mengurangkan kesibukan. Walau bagaimanapun, artikel itu berpendapat bahawa terdapat perkara lain yang perlu dititikberatkan, sebagai contoh, kita boleh menekankan perkaitan berbanding tidak relevan. Varian segera dalam Rajah 15 memberikan contoh

Artikel ini menjalankan eksperimen dalam tiga tetapan: soalan dan jawapan fakta, penjanaan hujah panjang dan menyelesaikan masalah perkataan matematik. Di samping itu, kertas kerja ini menggunakan LLaMA-2-70B-chat sebagai model asas, yang dinilai dalam dua tetapan

Tajuk baharu: Meta menambah baik seni bina Transformer: mekanisme perhatian baharu yang meningkatkan keupayaan penaakulanBaseline: disediakan dalam set data Gesaan input disalurkan kepada model dan dijawab dengan cara sifar. Penjanaan model boleh dipengaruhi oleh korelasi palsu yang disediakan dalam input.

Oracle Prompt: Gesaan tanpa pendapat tambahan atau ayat yang tidak berkaitan dimasukkan ke dalam model dan dijawab dengan cara sifar.

Rajah 5 (kiri) menunjukkan keputusan penilaian tentang jawapan soalan fakta. Perhatian Sistem 2 ialah peningkatan besar berbanding gesaan input asal, dengan kadar ketepatan 80.3%—hampir dengan prestasi Oracle Prompt.
  • Keputusan keseluruhan menunjukkan bahawa garis dasar, Oracle Prompt dan Perhatian Sistem 2 semuanya dinilai sebagai mampu memberikan tinggi yang sama kualiti Menilai. Rajah 6 (kanan) menunjukkan subhasil:

Dalam tugasan GSM-IC, Rajah 7 menunjukkan Keputusan daripada kaedah yang berbeza. Selaras dengan keputusan Shi et al., kami mendapati bahawa ketepatan garis dasar jauh lebih rendah daripada oracle. Kesan ini lebih hebat apabila ayat yang tidak berkaitan tergolong dalam topik yang sama dengan soalan, seperti yang ditunjukkan dalam Rajah 7 (kanan) #

Untuk maklumat lanjut, sila rujuk kertas asal. Tajuk baharu: Meta menambah baik seni bina Transformer: mekanisme perhatian baharu yang meningkatkan keupayaan penaakulan

Atas ialah kandungan terperinci Tajuk baharu: Meta menambah baik seni bina Transformer: mekanisme perhatian baharu yang meningkatkan keupayaan penaakulan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Cara Memperbaiki Audio Jika anda tidak dapat mendengar sesiapa
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Cara Membuka Segala -galanya Di Myrise
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Sumber terbuka! Di luar ZoeDepth! DepthFM: Anggaran kedalaman monokular yang cepat dan tepat! Sumber terbuka! Di luar ZoeDepth! DepthFM: Anggaran kedalaman monokular yang cepat dan tepat! Apr 03, 2024 pm 12:04 PM

0. Apakah fungsi artikel ini? Kami mencadangkan DepthFM: model anggaran kedalaman monokular generatif yang serba boleh dan pantas. Sebagai tambahan kepada tugas anggaran kedalaman tradisional, DepthFM juga menunjukkan keupayaan terkini dalam tugas hiliran seperti mengecat kedalaman. DepthFM cekap dan boleh mensintesis peta kedalaman dalam beberapa langkah inferens. Mari kita baca karya ini bersama-sama ~ 1. Tajuk maklumat kertas: DepthFM: FastMonocularDepthEstimationwithFlowMatching Pengarang: MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

Model MoE sumber terbuka paling berkuasa di dunia ada di sini, dengan keupayaan bahasa Cina setanding dengan GPT-4, dan harganya hanya hampir satu peratus daripada GPT-4-Turbo Model MoE sumber terbuka paling berkuasa di dunia ada di sini, dengan keupayaan bahasa Cina setanding dengan GPT-4, dan harganya hanya hampir satu peratus daripada GPT-4-Turbo May 07, 2024 pm 04:13 PM

Bayangkan model kecerdasan buatan yang bukan sahaja mempunyai keupayaan untuk mengatasi pengkomputeran tradisional, tetapi juga mencapai prestasi yang lebih cekap pada kos yang lebih rendah. Ini bukan fiksyen sains, DeepSeek-V2[1], model MoE sumber terbuka paling berkuasa di dunia ada di sini. DeepSeek-V2 ialah gabungan model bahasa pakar (MoE) yang berkuasa dengan ciri-ciri latihan ekonomi dan inferens yang cekap. Ia terdiri daripada 236B parameter, 21B daripadanya digunakan untuk mengaktifkan setiap penanda. Berbanding dengan DeepSeek67B, DeepSeek-V2 mempunyai prestasi yang lebih kukuh, sambil menjimatkan 42.5% kos latihan, mengurangkan cache KV sebanyak 93.3% dan meningkatkan daya pemprosesan penjanaan maksimum kepada 5.76 kali. DeepSeek ialah sebuah syarikat yang meneroka kecerdasan buatan am

Apr 09, 2024 am 11:52 AM

AI memang mengubah matematik. Baru-baru ini, Tao Zhexuan, yang telah mengambil perhatian terhadap isu ini, telah memajukan keluaran terbaru "Buletin Persatuan Matematik Amerika" (Buletin Persatuan Matematik Amerika). Memfokuskan pada topik "Adakah mesin akan mengubah matematik?", ramai ahli matematik menyatakan pendapat mereka Seluruh proses itu penuh dengan percikan api, tegar dan menarik. Penulis mempunyai barisan yang kuat, termasuk pemenang Fields Medal Akshay Venkatesh, ahli matematik China Zheng Lejun, saintis komputer NYU Ernest Davis dan ramai lagi sarjana terkenal dalam industri. Dunia AI telah berubah secara mendadak Anda tahu, banyak artikel ini telah dihantar setahun yang lalu.

KAN, yang menggantikan MLP, telah diperluaskan kepada konvolusi oleh projek sumber terbuka KAN, yang menggantikan MLP, telah diperluaskan kepada konvolusi oleh projek sumber terbuka Jun 01, 2024 pm 10:03 PM

Awal bulan ini, penyelidik dari MIT dan institusi lain mencadangkan alternatif yang sangat menjanjikan kepada MLP - KAN. KAN mengatasi MLP dari segi ketepatan dan kebolehtafsiran. Dan ia boleh mengatasi prestasi MLP berjalan dengan bilangan parameter yang lebih besar dengan bilangan parameter yang sangat kecil. Sebagai contoh, penulis menyatakan bahawa mereka menggunakan KAN untuk menghasilkan semula keputusan DeepMind dengan rangkaian yang lebih kecil dan tahap automasi yang lebih tinggi. Khususnya, MLP DeepMind mempunyai kira-kira 300,000 parameter, manakala KAN hanya mempunyai kira-kira 200 parameter. KAN mempunyai asas matematik yang kukuh seperti MLP berdasarkan teorem penghampiran universal, manakala KAN berdasarkan teorem perwakilan Kolmogorov-Arnold. Seperti yang ditunjukkan dalam rajah di bawah, KAN telah

Hello, Atlas elektrik! Robot Boston Dynamics hidup semula, gerakan pelik 180 darjah menakutkan Musk Hello, Atlas elektrik! Robot Boston Dynamics hidup semula, gerakan pelik 180 darjah menakutkan Musk Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas secara rasmi memasuki era robot elektrik! Semalam, Atlas hidraulik hanya "menangis" menarik diri daripada peringkat sejarah Hari ini, Boston Dynamics mengumumkan bahawa Atlas elektrik sedang berfungsi. Nampaknya dalam bidang robot humanoid komersial, Boston Dynamics berazam untuk bersaing dengan Tesla. Selepas video baharu itu dikeluarkan, ia telah pun ditonton oleh lebih sejuta orang dalam masa sepuluh jam sahaja. Orang lama pergi dan peranan baru muncul. Ini adalah keperluan sejarah. Tidak dinafikan bahawa tahun ini adalah tahun letupan robot humanoid. Netizen mengulas: Kemajuan robot telah menjadikan majlis pembukaan tahun ini kelihatan seperti manusia, dan tahap kebebasan adalah jauh lebih besar daripada manusia Tetapi adakah ini benar-benar bukan filem seram? Pada permulaan video, Atlas berbaring dengan tenang di atas tanah, seolah-olah terlentang. Apa yang berikut adalah rahang-jatuh

Versi Kuaishou Sora 'Ke Ling' dibuka untuk ujian: menghasilkan video lebih 120-an, memahami fizik dengan lebih baik dan boleh memodelkan pergerakan kompleks dengan tepat Versi Kuaishou Sora 'Ke Ling' dibuka untuk ujian: menghasilkan video lebih 120-an, memahami fizik dengan lebih baik dan boleh memodelkan pergerakan kompleks dengan tepat Jun 11, 2024 am 09:51 AM

Apa? Adakah Zootopia dibawa menjadi realiti oleh AI domestik? Didedahkan bersama-sama dengan video itu ialah model penjanaan video domestik berskala besar baharu yang dipanggil "Keling". Sora menggunakan laluan teknikal yang serupa dan menggabungkan beberapa inovasi teknologi yang dibangunkan sendiri untuk menghasilkan video yang bukan sahaja mempunyai pergerakan yang besar dan munasabah, tetapi juga mensimulasikan ciri-ciri dunia fizikal dan mempunyai keupayaan gabungan konsep dan imaginasi yang kuat. Mengikut data, Keling menyokong penjanaan video ultra panjang sehingga 2 minit pada 30fps, dengan resolusi sehingga 1080p dan menyokong berbilang nisbah aspek. Satu lagi perkara penting ialah Keling bukanlah demo atau demonstrasi hasil video yang dikeluarkan oleh makmal, tetapi aplikasi peringkat produk yang dilancarkan oleh Kuaishou, pemain terkemuka dalam bidang video pendek. Selain itu, tumpuan utama adalah untuk menjadi pragmatik, bukan untuk menulis cek kosong, dan pergi ke dalam talian sebaik sahaja ia dikeluarkan Model besar Ke Ling telah pun dikeluarkan di Kuaiying.

Daya hidup kecerdasan super membangkitkan! Tetapi dengan kedatangan AI yang mengemas kini sendiri, ibu tidak perlu lagi bimbang tentang kesesakan data Daya hidup kecerdasan super membangkitkan! Tetapi dengan kedatangan AI yang mengemas kini sendiri, ibu tidak perlu lagi bimbang tentang kesesakan data Apr 29, 2024 pm 06:55 PM

Saya menangis hingga mati. Dunia sedang membina model besar. Data di Internet tidak mencukupi. Model latihan kelihatan seperti "The Hunger Games", dan penyelidik AI di seluruh dunia bimbang tentang cara memberi makan data ini kepada pemakan yang rakus. Masalah ini amat ketara dalam tugas berbilang modal. Pada masa mereka mengalami kerugian, pasukan pemula dari Jabatan Universiti Renmin China menggunakan model baharu mereka sendiri untuk menjadi yang pertama di China untuk menjadikan "suapan data yang dijana model itu sendiri" menjadi kenyataan. Selain itu, ia merupakan pendekatan serampang dua mata dari segi pemahaman dan sisi penjanaan Kedua-dua pihak boleh menjana data baharu berbilang modal yang berkualiti tinggi dan memberikan maklum balas data kepada model itu sendiri. Apakah model? Awaker 1.0, model berbilang modal besar yang baru sahaja muncul di Forum Zhongguancun. Siapa pasukan itu? Enjin Sophon. Diasaskan oleh Gao Yizhao, pelajar kedoktoran di Sekolah Kecerdasan Buatan Hillhouse Universiti Renmin.

FisheyeDetNet: algoritma pengesanan sasaran pertama berdasarkan kamera fisheye FisheyeDetNet: algoritma pengesanan sasaran pertama berdasarkan kamera fisheye Apr 26, 2024 am 11:37 AM

Pengesanan objek ialah masalah yang agak matang dalam sistem pemanduan autonomi, antaranya pengesanan pejalan kaki adalah salah satu algoritma terawal untuk digunakan. Penyelidikan yang sangat komprehensif telah dijalankan dalam kebanyakan kertas kerja. Walau bagaimanapun, persepsi jarak menggunakan kamera fisheye untuk pandangan sekeliling agak kurang dikaji. Disebabkan herotan jejari yang besar, perwakilan kotak sempadan standard sukar dilaksanakan dalam kamera fisheye. Untuk mengurangkan perihalan di atas, kami meneroka kotak sempadan lanjutan, elips dan reka bentuk poligon am ke dalam perwakilan kutub/sudut dan mentakrifkan metrik mIOU pembahagian contoh untuk menganalisis perwakilan ini. Model fisheyeDetNet yang dicadangkan dengan bentuk poligon mengatasi model lain dan pada masa yang sama mencapai 49.5% mAP pada set data kamera fisheye Valeo untuk pemanduan autonomi

See all articles