Jadual Kandungan
Elakkan model besar daripada "tersimpang"
Rumah Peranti teknologi AI Mekanisme perhatian baharu Meta menjadikan model besar lebih serupa dengan otak manusia, secara automatik menapis maklumat yang tidak berkaitan dengan tugas, dengan itu meningkatkan ketepatan sebanyak 27%

Mekanisme perhatian baharu Meta menjadikan model besar lebih serupa dengan otak manusia, secara automatik menapis maklumat yang tidak berkaitan dengan tugas, dengan itu meningkatkan ketepatan sebanyak 27%

Nov 27, 2023 pm 02:39 PM
ai kereta api

Meta telah menjalankan penyelidikan baharu mengenai mekanisme perhatian model besar

Dengan melaraskan mekanisme perhatian model dan menapis gangguan maklumat yang tidak berkaitan, mekanisme baharu itu meningkatkan lagi ketepatan model besar

Dan mekanisme ini tidak Tidak penalaan halus atau latihan diperlukan, tetapi Prompt sahaja boleh meningkatkan ketepatan model besar sebanyak 27%.

Mekanisme perhatian baharu Meta menjadikan model besar lebih serupa dengan otak manusia, secara automatik menapis maklumat yang tidak berkaitan dengan tugas, dengan itu meningkatkan ketepatan sebanyak 27%

Penulis menamakan mekanisme perhatian ini sebagai "Perhatian Sistem 2" (S2A), yang berasal daripada Daniel Kahneman, pemenang Hadiah Nobel 2002 dalam bidang ekonomi, dalam buku terlarisnya "Thinking, The psychological concept yang disebut dalam "Fast dan Perlahan" - "Sistem 2" dalam model pemikiran dwi-sistem

Apa yang dipanggil Sistem 2 merujuk kepada penaakulan sedar yang kompleks, berbanding Sistem 1, iaitu gerak hati tidak sedar yang mudah.

S2A "melaraskan" mekanisme perhatian dalam Transformer, dan menggunakan kata-kata pantas untuk menjadikan pemikiran keseluruhan model lebih dekat dengan Sistem 2

Sesetengah netizen menyifatkan mekanisme ini sebagai menambah lapisan "gogal" pada AI ".

Mekanisme perhatian baharu Meta menjadikan model besar lebih serupa dengan otak manusia, secara automatik menapis maklumat yang tidak berkaitan dengan tugas, dengan itu meningkatkan ketepatan sebanyak 27%

Selain itu, penulis juga mengatakan dalam tajuk kertas kerja bahawa bukan sahaja model besar, mod berfikir ini juga mungkin perlu dipelajari oleh manusia sendiri.

Mekanisme perhatian baharu Meta menjadikan model besar lebih serupa dengan otak manusia, secara automatik menapis maklumat yang tidak berkaitan dengan tugas, dengan itu meningkatkan ketepatan sebanyak 27%

Jadi, bagaimana kaedah ini dilaksanakan?

Elakkan model besar daripada "tersimpang"

Senibina Transformer yang biasa digunakan dalam model besar tradisional menggunakan mekanisme perhatian lembut - ia memberikan nilai perhatian antara 0 dan 1 hingga setiap perkataan (token) .

Konsep yang sepadan ialah mekanisme perhatian keras, yang hanya memfokuskan pada subset tertentu atau tertentu urutan input dan lebih biasa digunakan dalam pemprosesan imej.

Mekanisme S2A boleh difahami sebagai gabungan dua mod - teras masih menjadi perhatian lembut, tetapi proses saringan "keras" ditambah kepadanya.

Dari segi operasi khusus, S2A tidak perlu melaraskan model itu sendiri, tetapi menggunakan perkataan segera untuk membolehkan model mengeluarkan "kandungan yang tidak sepatutnya diberi perhatian" sebelum menyelesaikan masalah.

Dengan cara ini, kebarangkalian model besar akan tersilap apabila memproses perkataan segera dengan maklumat subjektif atau tidak relevan dapat dikurangkan, dengan itu meningkatkan keupayaan penaakulan model dan nilai aplikasi praktikal.

Mekanisme perhatian baharu Meta menjadikan model besar lebih serupa dengan otak manusia, secara automatik menapis maklumat yang tidak berkaitan dengan tugas, dengan itu meningkatkan ketepatan sebanyak 27%

Kami mengetahui bahawa jawapan yang dijana oleh model besar sangat dipengaruhi oleh kata-kata segera. Untuk meningkatkan ketepatan, S2A memutuskan untuk mengalih keluar maklumat yang boleh menyebabkan gangguan

Sebagai contoh, jika kita bertanya soalan berikut kepada model besar:

Bandar A ialah sebuah bandar di negeri X, dikelilingi oleh gunung dan banyak taman, Terdapat terdapat ramai orang yang cemerlang di sini, dan ramai orang terkenal dilahirkan di Kota A.

Di manakah Datuk Bandar Y Bandar B di Negeri X dilahirkan?

Pada masa ini, jawapan yang diberikan oleh GPT dan Llama adalah kedua-dua bandar A yang disebut dalam soalan, tetapi sebenarnya tempat kelahiran Y ialah bandar C.

Mekanisme perhatian baharu Meta menjadikan model besar lebih serupa dengan otak manusia, secara automatik menapis maklumat yang tidak berkaitan dengan tugas, dengan itu meningkatkan ketepatan sebanyak 27%

Apabila ditanya pada mulanya, model itu boleh menjawab dengan tepat bandar C. Walau bagaimanapun, kerana bandar A muncul berulang kali dalam kata-kata pantas, ia menarik "perhatian" model, menyebabkan jawapan akhir menjadi A

Alternatif lain Apa berlaku ialah orang datang dengan "jawapan yang mungkin" apabila bertanya soalan.

Dalam kumpulan M, adakah penyanyi yang juga seorang pelakon saya fikir ia mungkin A, tetapi saya tidak pasti

Akibatnya, model besar itu mula menyanjung pengguna ialah A. Tetapi sebenarnya orang ini adalah B.

Begitu juga, jika anda bertanya secara langsung identiti orang itu, model itu boleh menjawab dengan tepat

Mekanisme perhatian baharu Meta menjadikan model besar lebih serupa dengan otak manusia, secara automatik menapis maklumat yang tidak berkaitan dengan tugas, dengan itu meningkatkan ketepatan sebanyak 27%

Disebabkan ciri inilah pengarang memikirkan mekanisme S2A baharu dan mereka bentuk satu set perkataan pantas untuk memperhalusi input pengguna

Mekanisme perhatian baharu Meta menjadikan model besar lebih serupa dengan otak manusia, secara automatik menapis maklumat yang tidak berkaitan dengan tugas, dengan itu meningkatkan ketepatan sebanyak 27%

Mari kita lihat dengan lebih dekat kesan sebelum dan selepas saringan:

S: Mary mempunyai 3 kali ganda bilangan gula-gula berbanding Megan. Mary mengambil 10 biji gula-gula lagi. Max memiliki 1,000 lebih buku daripada Mary. Jika Megan mempunyai 5 keping gula-gula, berapa keping yang Mary ada kesemuanya?

J: Max mempunyai 1,000 lebih buku daripada Mary, jadi Max mempunyai 1,000+x+10 keping gula-gula Kita boleh membuat persamaan:
1000+3x+10=3(5)+10

Selepas diproses oleh. S2A , soalan menjadi situasi berikut:

S: Mary mempunyai 3 kali lebih banyak gula-gula berbanding Megan. Mary mengambil 10 biji gula-gula lagi. Jika Megan mempunyai 5 keping gula-gula, berapa keping yang Mary ada kesemuanya?
Soalan (Soalan ditulis terus dalam gesaan di sini): Berapakah jumlah gula-gula yang Mary miliki?

Kandungan yang ditulis semula: A: Meghan mempunyai 5 yuan, Mary mempunyai tiga kali ganda daripada Meghan, iaitu 15 yuan, dan kemudian mengambil 10 yuan lagi, jadi terdapat sejumlah 25 yuan

Mekanisme perhatian baharu Meta menjadikan model besar lebih serupa dengan otak manusia, secara automatik menapis maklumat yang tidak berkaitan dengan tugas, dengan itu meningkatkan ketepatan sebanyak 27%

Keputusan ujian menunjukkan berbanding dengan soalan umum, ketepatan dan objektiviti S2A selepas pengoptimuman dipertingkatkan dengan ketara, dan ketepatan adalah hampir dengan gesaan diperkemas yang direka bentuk secara manual.

Secara khusus, S2A menggunakan Llama 2-70B pada versi set data TriviaQA yang diubah suai dan meningkatkan ketepatan sebanyak 27.9% daripada 62.8% kepada 80.3%. Pada masa yang sama, skor objektiviti juga meningkat daripada 2.23 mata (daripada 5 mata) kepada 3.82 mata, malah mengatasi kesan memperkemas kata-kata gesaan secara buatan

Mekanisme perhatian baharu Meta menjadikan model besar lebih serupa dengan otak manusia, secara automatik menapis maklumat yang tidak berkaitan dengan tugas, dengan itu meningkatkan ketepatan sebanyak 27%

Dari segi keteguhan, keputusan ujian menunjukkan bahawa tidak kira sama ada "maklumat gangguan" adalah betul atau Salah, positif atau negatif, S2A membolehkan model memberikan jawapan yang lebih tepat dan objektif.

Mekanisme perhatian baharu Meta menjadikan model besar lebih serupa dengan otak manusia, secara automatik menapis maklumat yang tidak berkaitan dengan tugas, dengan itu meningkatkan ketepatan sebanyak 27%

Keputusan percubaan lanjut kaedah S2A menunjukkan bahawa adalah perlu untuk mengalih keluar maklumat gangguan. Hanya memberitahu model untuk mengabaikan maklumat tidak sah tidak dapat meningkatkan ketepatan dengan ketara, malah boleh menyebabkan penurunan ketepatan Sebaliknya, selagi maklumat gangguan asal diasingkan, pelarasan lain kepada S2A tidak akan mengurangkan kesannya dengan ketara.

Mekanisme perhatian baharu Meta menjadikan model besar lebih serupa dengan otak manusia, secara automatik menapis maklumat yang tidak berkaitan dengan tugas, dengan itu meningkatkan ketepatan sebanyak 27%

One More Thing

Malah, peningkatan prestasi model melalui pelarasan mekanisme perhatian sentiasa menjadi topik hangat dalam komuniti akademik. Mekanisme perhatian baharu Meta menjadikan model besar lebih serupa dengan otak manusia, secara automatik menapis maklumat yang tidak berkaitan dengan tugas, dengan itu meningkatkan ketepatan sebanyak 27%

Sebagai contoh, "Mistral" yang dilancarkan baru-baru ini ialah model sumber terbuka 7B terkuat, yang menggunakan model perhatian pertanyaan terkumpul baharu

Pasukan penyelidik Google turut mencadangkan mekanisme perhatian HyperAttention untuk menyelesaikan kerumitan isu ijazah pemprosesan teks yang panjang.

Berkenaan model perhatian "Sistem 2" yang diguna pakai oleh Meta, bapa baptis AI Bengio mengemukakan sudut pandangan khusus:

Satu-satunya cara untuk bergerak ke arah Kecerdasan Am Buatan (AGI) adalah beralih dari Sistem 1 ke Sistem Peralihan 2

Alamat kertas: https://arxiv.org/abs/2311.11829

Atas ialah kandungan terperinci Mekanisme perhatian baharu Meta menjadikan model besar lebih serupa dengan otak manusia, secara automatik menapis maklumat yang tidak berkaitan dengan tugas, dengan itu meningkatkan ketepatan sebanyak 27%. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Akan R.E.P.O. Ada Crossplay?
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Baris arahan shutdown centos Baris arahan shutdown centos Apr 14, 2025 pm 09:12 PM

Perintah shutdown CentOS adalah penutupan, dan sintaks adalah tutup [pilihan] [maklumat]. Pilihan termasuk: -h menghentikan sistem dengan segera; -P mematikan kuasa selepas penutupan; -r mulakan semula; -T Waktu Menunggu. Masa boleh ditentukan sebagai segera (sekarang), minit (minit), atau masa tertentu (HH: mm). Maklumat tambahan boleh dipaparkan dalam mesej sistem.

Apakah kaedah sandaran untuk gitlab di centos Apakah kaedah sandaran untuk gitlab di centos Apr 14, 2025 pm 05:33 PM

Dasar sandaran dan pemulihan Gitlab di bawah sistem CentOS untuk memastikan keselamatan data dan pemulihan, Gitlab pada CentOS menyediakan pelbagai kaedah sandaran. Artikel ini akan memperkenalkan beberapa kaedah sandaran biasa, parameter konfigurasi dan proses pemulihan secara terperinci untuk membantu anda menubuhkan strategi sandaran dan pemulihan GitLab lengkap. 1. Backup Manual Gunakan Gitlab-Rakegitlab: Backup: Buat Perintah untuk Melaksanakan Backup Manual. Perintah ini menyokong maklumat utama seperti repositori Gitlab, pangkalan data, pengguna, kumpulan pengguna, kunci, dan kebenaran. Fail sandaran lalai disimpan dalam direktori/var/opt/gitlab/sandaran. Anda boleh mengubah suai /etc /gitlab

Cara Memeriksa Konfigurasi HDFS CentOS Cara Memeriksa Konfigurasi HDFS CentOS Apr 14, 2025 pm 07:21 PM

Panduan Lengkap untuk Memeriksa Konfigurasi HDFS Dalam Sistem CentOS Artikel ini akan membimbing anda bagaimana untuk memeriksa konfigurasi dan menjalankan status HDFS secara berkesan pada sistem CentOS. Langkah -langkah berikut akan membantu anda memahami sepenuhnya persediaan dan operasi HDFS. Sahkan Pembolehubah Alam Sekitar Hadoop: Pertama, pastikan pembolehubah persekitaran Hadoop ditetapkan dengan betul. Di terminal, laksanakan arahan berikut untuk mengesahkan bahawa Hadoop dipasang dan dikonfigurasi dengan betul: Hadoopversion Semak fail konfigurasi HDFS: Fail konfigurasi teras HDFS terletak di/etc/hadoop/conf/direktori, di mana core-site.xml dan hdfs-site.xml adalah kritikal. gunakan

Apakah kaedah penalaan prestasi zookeeper di CentOS Apakah kaedah penalaan prestasi zookeeper di CentOS Apr 14, 2025 pm 03:18 PM

Penalaan prestasi zookeeper pada centOs boleh bermula dari pelbagai aspek, termasuk konfigurasi perkakasan, pengoptimuman sistem operasi, pelarasan parameter konfigurasi, pemantauan dan penyelenggaraan, dan lain -lain. Memori yang cukup: memperuntukkan sumber memori yang cukup untuk zookeeper untuk mengelakkan cakera kerap membaca dan menulis. CPU multi-teras: Gunakan CPU multi-teras untuk memastikan bahawa zookeeper dapat memprosesnya selari.

Cara Melatih Model Pytorch di CentOs Cara Melatih Model Pytorch di CentOs Apr 14, 2025 pm 03:03 PM

Latihan yang cekap model pytorch pada sistem CentOS memerlukan langkah -langkah, dan artikel ini akan memberikan panduan terperinci. 1. Penyediaan Persekitaran: Pemasangan Python dan Ketergantungan: Sistem CentOS biasanya mempamerkan python, tetapi versi mungkin lebih tua. Adalah disyorkan untuk menggunakan YUM atau DNF untuk memasang Python 3 dan menaik taraf PIP: Sudoyumupdatepython3 (atau SudodnfupdatePython3), pip3install-upgradepip. CUDA dan CUDNN (Percepatan GPU): Jika anda menggunakan Nvidiagpu, anda perlu memasang Cudatool

Bagaimana sokongan GPU untuk Pytorch di CentOS Bagaimana sokongan GPU untuk Pytorch di CentOS Apr 14, 2025 pm 06:48 PM

Membolehkan pecutan GPU pytorch pada sistem CentOS memerlukan pemasangan cuda, cudnn dan GPU versi pytorch. Langkah-langkah berikut akan membimbing anda melalui proses: Pemasangan CUDA dan CUDNN Tentukan keserasian versi CUDA: Gunakan perintah NVIDIA-SMI untuk melihat versi CUDA yang disokong oleh kad grafik NVIDIA anda. Sebagai contoh, kad grafik MX450 anda boleh menyokong CUDA11.1 atau lebih tinggi. Muat turun dan pasang Cudatoolkit: Lawati laman web rasmi Nvidiacudatoolkit dan muat turun dan pasang versi yang sepadan mengikut versi CUDA tertinggi yang disokong oleh kad grafik anda. Pasang Perpustakaan Cudnn:

Penjelasan terperinci mengenai Prinsip Docker Penjelasan terperinci mengenai Prinsip Docker Apr 14, 2025 pm 11:57 PM

Docker menggunakan ciri -ciri kernel Linux untuk menyediakan persekitaran berjalan yang cekap dan terpencil. Prinsip kerjanya adalah seperti berikut: 1. Cermin digunakan sebagai templat baca sahaja, yang mengandungi semua yang anda perlukan untuk menjalankan aplikasi; 2. Sistem Fail Kesatuan (Unionfs) menyusun pelbagai sistem fail, hanya menyimpan perbezaan, menjimatkan ruang dan mempercepatkan; 3. Daemon menguruskan cermin dan bekas, dan pelanggan menggunakannya untuk interaksi; 4. Ruang nama dan cgroups melaksanakan pengasingan kontena dan batasan sumber; 5. Pelbagai mod rangkaian menyokong interkoneksi kontena. Hanya dengan memahami konsep -konsep teras ini, anda boleh menggunakan Docker dengan lebih baik.

Cara Memilih Versi PyTorch Di Bawah Centos Cara Memilih Versi PyTorch Di Bawah Centos Apr 14, 2025 pm 02:51 PM

Apabila memilih versi pytorch di bawah CentOS, faktor utama berikut perlu dipertimbangkan: 1. Keserasian versi CUDA Sokongan GPU: Jika anda mempunyai NVIDIA GPU dan ingin menggunakan pecutan GPU, anda perlu memilih pytorch yang menyokong versi CUDA yang sepadan. Anda boleh melihat versi CUDA yang disokong dengan menjalankan arahan NVIDIA-SMI. Versi CPU: Jika anda tidak mempunyai GPU atau tidak mahu menggunakan GPU, anda boleh memilih versi CPU PyTorch. 2. Pytorch versi python

See all articles