


Hancurkan sumpahan 36 tahun yang lalu! Meta melancarkan kaedah latihan terbalik untuk menghapuskan 'kutukan pembalikan' model besar
"Kutukan pembalikan" model bahasa besar telah diselesaikan!
Sumpahan ini mula-mula ditemui pada September tahun lalu, yang serta-merta menimbulkan seruan daripada LeCun, Karpathy, Marcus dan lelaki besar yang lain.
Kerana model besar yang tiada tandingan dan angkuh itu sebenarnya mempunyai "tumit Achilles": model bahasa yang dilatih pada "A ialah B" tidak dapat menjawab "Adakah B A" dengan betul.
Sebagai contoh, dalam contoh berikut: LLM dengan jelas mengetahui bahawa "Ibu Tom Cruise ialah Mary Lee Pfeiffer", tetapi tidak boleh menjawab "Anak Mary Lee Pfeiffer ialah Tom Cruise".
——Ini adalah GPT-4 yang paling maju pada masa itu, walaupun kanak-kanak boleh mempunyai pemikiran logik yang normal, tetapi LLM tidak dapat melakukannya.
Berdasarkan data besar-besaran, dia telah menghafal ilmu yang melebihi hampir semua manusia, namun berkelakuan begitu membosankan Dia telah memperoleh api kebijaksanaan, tetapi selamanya terpenjara dalam sumpahan ini.
Alamat kertas: https://arxiv.org/pdf/2309.12288v1.pdf
Sebaik kejadian ini tersiar, seluruh Internet gempar.
Di satu pihak, netizen mengatakan bahawa model besar itu benar-benar bodoh, sungguh. Hanya mengetahui "A adalah B" tetapi tidak mengetahui "B adalah A", akhirnya saya mengekalkan maruah saya sebagai seorang manusia.
Sebaliknya, penyelidik juga telah mula mengkaji perkara ini dan bekerja keras untuk menyelesaikan cabaran utama ini.
Baru-baru ini, penyelidik dari Meta FAIR melancarkan kaedah latihan terbalik untuk menyelesaikan "sumpahan terbalik" LLM dalam satu masa.
Alamat kertas: https://arxiv.org/pdf/2403.13799.pdf
Para penyelidik mula-mula memerhatikan bahawa LLM dilatih secara autoregresif menyebabkan ini adalah kemungkinan dari kiri ke kanan - pembalikan sumpahan.
Jadi, jika anda melatih LLM (latihan songsang) dalam arah kanan ke kiri, model boleh melihat fakta dalam arah songsang.
Teks terbalik boleh dianggap sebagai bahasa kedua, memanfaatkan pelbagai sumber berbeza melalui latihan berbilang tugas atau pra-latihan merentas bahasa.
Para penyelidik mempertimbangkan 4 jenis penyongsangan: penyongsangan token, penyongsangan perkataan, penyongsangan pemuliharaan entiti dan penyongsangan segmen rawak.
Pembalikan token dan perkataan, dengan membahagikan urutan menjadi token atau perkataan masing-masing dan membalikkan susunannya untuk membentuk urutan baharu.
Entiti Memelihara Songsang, mencari nama entiti dalam urutan dan mengekalkan susunan perkataan dari kiri ke kanan di dalamnya semasa melakukan pembalikan perkataan.
Penyongsangan segmen rawak membahagikan jujukan token kepada blok panjang rawak dan kemudian mengekalkan susunan kiri ke kanan dalam setiap blok.
Para penyelidik menguji keberkesanan jenis penyongsangan ini pada skala parameter 1.4B dan 7B dan menunjukkan bahawa latihan pemuliharaan entiti dan latihan penyongsangan secara rawak boleh mengurangkan kutukan penyongsangan, malah dalam beberapa kes, Hapuskannya sepenuhnya.
Di samping itu, para penyelidik juga mendapati bahawa membalikkan sebelum latihan meningkatkan prestasi model berbanding latihan standard kiri-ke-kanan - jadi latihan songsang boleh digunakan sebagai kaedah latihan am.
Kaedah latihan songsang
Latihan songsang termasuk mendapatkan set data latihan dengan sampel N dan membina set sampel terbalik REVERSE (x). .
Penyongsangan Pemeliharaan Entiti: Jalankan pengesan entiti pada sampel latihan yang diberikan, pecahkan bukan entiti kepada perkataan juga. Kemudian perkataan bukan entiti diterbalikkan, manakala perkataan yang mewakili entiti mengekalkan susunan perkataan asalnya.
Pembalikan Segmen Rawak: Daripada menggunakan pengesan entiti, kami cuba menggunakan pensampelan seragam untuk membahagikan urutan secara rawak kepada segmen dengan saiz antara token 1 dan k, dan kemudian membalikkan segmen ini, tetapi mengekalkan setiap susunan perkataan dalam satu segmen, selepas itu segmen disambungkan menggunakan token khas [REV].
Jadual di atas memberikan contoh jenis penyongsangan yang berbeza pada rentetan tertentu.
Pada masa ini, model bahasa masih dilatih dari kiri ke kanan Dalam kes pembalikan perkataan, ia bersamaan dengan meramal ayat dari kanan ke kiri.
Latihan songsang melibatkan latihan pada contoh standard dan songsang, jadi bilangan token latihan digandakan, manakala kedua-dua sampel latihan ke hadapan dan songsang dicampur bersama.
Transformasi songsang boleh dilihat sebagai bahasa kedua yang model mesti pelajari bahawa semasa penyongsangan, hubungan antara fakta tetap tidak berubah dan model boleh menilai dari tatabahasa sama ada arah hadapan atau songsang model ramalan bahasa.
Perspektif lain latihan songsang boleh dijelaskan oleh teori maklumat: matlamat pemodelan bahasa adalah untuk mempelajari taburan kebarangkalian bahasa semula jadi
Mulakan dengan mencipta set data berasaskan simbol mudah untuk mengkaji laknat penyongsangan dalam persekitaran terkawal.
Gandingkan entiti a dan b secara rawak dengan cara satu dengan satu Data latihan mengandungi semua pasangan pemetaan (a→b), tetapi hanya separuh daripada pemetaan (b→a), dan separuh lagi berfungsi sebagai. data ujian. Model mesti membuat kesimpulan peraturan a→b ⇔ b→a daripada data latihan dan kemudian umumkannya kepada pasangan dalam data ujian.
Jadual di atas menunjukkan ketepatan ujian (%) tugas pembalikan tanda. Walaupun tugas itu mudah, latihan model bahasa standard gagal sepenuhnya, menunjukkan bahawa penskalaan sahaja tidak mungkin menyelesaikannya.
Sebaliknya, latihan terbalik hampir boleh menyelesaikan masalah dua entiti perkataan, tetapi prestasinya menurun dengan cepat apabila entiti itu semakin panjang.
Pembalikan perkataan berfungsi dengan baik untuk entiti yang lebih pendek, tetapi untuk entiti dengan lebih banyak perkataan, penyongsangan yang memelihara entiti diperlukan. Pembalikan segmen rawak berprestasi baik apabila panjang segmen maksimum k sekurang-kurangnya sepanjang entiti.
Meningkatkan nama orang -orang di atas menunjukkan tugas pembalikan untuk menentukan nama penuh seseorang. nama penuh masih menghampiri sifar, - ini kerana dalam kaedah pengesanan entiti yang diterima pakai dalam artikel ini, tarikh dianggap sebagai tiga entiti, jadi susunan mereka tidak dikekalkan dalam pembalikan.
Jika tugas penyongsangan dikurangkan kepada hanya menentukan nama keluarga seseorang, penyongsangan peringkat perkataan sudah memadai.
Fenomena lain yang mungkin mengejutkan ialah kaedah pengekalan entiti boleh menentukan nama penuh orang itu, tetapi bukan nama keluarga orang itu.
Ini adalah fenomena yang diketahui: model bahasa mungkin tidak dapat mendapatkan semula token lewat serpihan pengetahuan (seperti nama keluarga).
Fakta Dunia SebenarDi sini penulis melatih model parameter Llama-2 1.4 bilion, melatih model garis dasar 2 trilion token ke arah kiri ke kanan.
Sebaliknya, latihan songsang hanya menggunakan 1 trilion token, tetapi menggunakan subset data yang sama untuk melatih dalam dua arah, kiri ke kanan dan kanan ke kiri - dua arah digabungkan ialah 2 trilion token, memastikan keadilan dan keadilan dari segi sumber pengkomputeran.
Untuk menguji pembalikan fakta dunia sebenar, penyelidik menggunakan tugas selebriti, yang termasuk soalan seperti "Siapa ibu selebriti serta soalan penyongsangan yang lebih mencabar, contohnya, "Siapakah anak-anak orang tertentu?" ibu bapa selebriti?" Keputusan ditunjukkan dalam jadual di atas. Para penyelidik mencuba model beberapa kali untuk setiap soalan dan menganggapnya berjaya jika mana-mana daripadanya mengandungi jawapan yang betul. Secara amnya, ketepatan biasanya agak rendah kerana modelnya kecil dari segi bilangan parameter, mempunyai pra-latihan yang terhad dan kurang penalaan halus. Walau bagaimanapun, latihan terbalik menunjukkan prestasi yang lebih baik. Pada tahun 1988, Fodor dan Pylyshyn menerbitkan artikel tentang sifat pemikiran yang sistematik dalam jurnal "Kognisi". Jika anda benar-benar memahami dunia ini, maka anda sepatutnya dapat memahami hubungan antara a dan b, dan hubungan antara b dan a. Makhluk kognitif bukan lisan pun sepatutnya boleh melakukan ini. Prophecy 36 tahun yang lalu
Atas ialah kandungan terperinci Hancurkan sumpahan 36 tahun yang lalu! Meta melancarkan kaedah latihan terbalik untuk menghapuskan 'kutukan pembalikan' model besar. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Perintah shutdown CentOS adalah penutupan, dan sintaks adalah tutup [pilihan] [maklumat]. Pilihan termasuk: -h menghentikan sistem dengan segera; -P mematikan kuasa selepas penutupan; -r mulakan semula; -T Waktu Menunggu. Masa boleh ditentukan sebagai segera (sekarang), minit (minit), atau masa tertentu (HH: mm). Maklumat tambahan boleh dipaparkan dalam mesej sistem.

Panduan Lengkap untuk Memeriksa Konfigurasi HDFS Dalam Sistem CentOS Artikel ini akan membimbing anda bagaimana untuk memeriksa konfigurasi dan menjalankan status HDFS secara berkesan pada sistem CentOS. Langkah -langkah berikut akan membantu anda memahami sepenuhnya persediaan dan operasi HDFS. Sahkan Pembolehubah Alam Sekitar Hadoop: Pertama, pastikan pembolehubah persekitaran Hadoop ditetapkan dengan betul. Di terminal, laksanakan arahan berikut untuk mengesahkan bahawa Hadoop dipasang dan dikonfigurasi dengan betul: Hadoopversion Semak fail konfigurasi HDFS: Fail konfigurasi teras HDFS terletak di/etc/hadoop/conf/direktori, di mana core-site.xml dan hdfs-site.xml adalah kritikal. gunakan

Dasar sandaran dan pemulihan Gitlab di bawah sistem CentOS untuk memastikan keselamatan data dan pemulihan, Gitlab pada CentOS menyediakan pelbagai kaedah sandaran. Artikel ini akan memperkenalkan beberapa kaedah sandaran biasa, parameter konfigurasi dan proses pemulihan secara terperinci untuk membantu anda menubuhkan strategi sandaran dan pemulihan GitLab lengkap. 1. Backup Manual Gunakan Gitlab-Rakegitlab: Backup: Buat Perintah untuk Melaksanakan Backup Manual. Perintah ini menyokong maklumat utama seperti repositori Gitlab, pangkalan data, pengguna, kumpulan pengguna, kunci, dan kebenaran. Fail sandaran lalai disimpan dalam direktori/var/opt/gitlab/sandaran. Anda boleh mengubah suai /etc /gitlab

Membolehkan pecutan GPU pytorch pada sistem CentOS memerlukan pemasangan cuda, cudnn dan GPU versi pytorch. Langkah-langkah berikut akan membimbing anda melalui proses: Pemasangan CUDA dan CUDNN Tentukan keserasian versi CUDA: Gunakan perintah NVIDIA-SMI untuk melihat versi CUDA yang disokong oleh kad grafik NVIDIA anda. Sebagai contoh, kad grafik MX450 anda boleh menyokong CUDA11.1 atau lebih tinggi. Muat turun dan pasang Cudatoolkit: Lawati laman web rasmi Nvidiacudatoolkit dan muat turun dan pasang versi yang sepadan mengikut versi CUDA tertinggi yang disokong oleh kad grafik anda. Pasang Perpustakaan Cudnn:

Docker menggunakan ciri -ciri kernel Linux untuk menyediakan persekitaran berjalan yang cekap dan terpencil. Prinsip kerjanya adalah seperti berikut: 1. Cermin digunakan sebagai templat baca sahaja, yang mengandungi semua yang anda perlukan untuk menjalankan aplikasi; 2. Sistem Fail Kesatuan (Unionfs) menyusun pelbagai sistem fail, hanya menyimpan perbezaan, menjimatkan ruang dan mempercepatkan; 3. Daemon menguruskan cermin dan bekas, dan pelanggan menggunakannya untuk interaksi; 4. Ruang nama dan cgroups melaksanakan pengasingan kontena dan batasan sumber; 5. Pelbagai mod rangkaian menyokong interkoneksi kontena. Hanya dengan memahami konsep -konsep teras ini, anda boleh menggunakan Docker dengan lebih baik.

Memasang MySQL pada CentOS melibatkan langkah -langkah berikut: Menambah sumber MySQL YUM yang sesuai. Jalankan YUM Pasang Perintah MySQL-Server untuk memasang pelayan MySQL. Gunakan perintah mysql_secure_installation untuk membuat tetapan keselamatan, seperti menetapkan kata laluan pengguna root. Sesuaikan fail konfigurasi MySQL seperti yang diperlukan. Tune parameter MySQL dan mengoptimumkan pangkalan data untuk prestasi.

Panduan Lengkap untuk Melihat Log Gitlab Di bawah Sistem CentOS Artikel ini akan membimbing anda bagaimana untuk melihat pelbagai log Gitlab dalam sistem CentOS, termasuk log utama, log pengecualian, dan log lain yang berkaitan. Sila ambil perhatian bahawa laluan fail log mungkin berbeza -beza bergantung pada versi GitLab dan kaedah pemasangan. Jika laluan berikut tidak wujud, sila semak fail Direktori Pemasangan dan Konfigurasi GitLab. 1. Lihat log Gitlab utama Gunakan arahan berikut untuk melihat fail log utama aplikasi GitLabRails: Perintah: Sudocat/var/Log/Gitlab/Gitlab-Rails/Production.log Perintah ini akan memaparkan produk

Latihan yang diedarkan Pytorch pada sistem CentOS memerlukan langkah -langkah berikut: Pemasangan Pytorch: Premisnya ialah Python dan PIP dipasang dalam sistem CentOS. Bergantung pada versi CUDA anda, dapatkan arahan pemasangan yang sesuai dari laman web rasmi Pytorch. Untuk latihan CPU sahaja, anda boleh menggunakan arahan berikut: PipinstallToRchTorchVisionTorchaudio Jika anda memerlukan sokongan GPU, pastikan versi CUDA dan CUDNN yang sama dipasang dan gunakan versi pytorch yang sepadan untuk pemasangan. Konfigurasi Alam Sekitar Teragih: Latihan yang diedarkan biasanya memerlukan pelbagai mesin atau mesin berbilang mesin tunggal. Tempat
