Rumah Peranti teknologi AI Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16

Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16

May 29, 2024 am 09:29 AM
projek ByteDance

Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16
Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com

Apabila model bahasa besar pembelajaran mendalam menjadi semakin popular, model bahasa besar menjadi lebih besar dan lebih besar, menjadikan kos inferens mereka juga meningkat. Kuantifikasi model telah menjadi topik penyelidikan yang popular.

Baru-baru ini, ByteDance telah melancarkan idea kuantifikasi baharu, meninggalkan paradigma kuantifikasi tradisional dan memodelkan tugas kuantifikasi daripada perspektif pengoptimuman matematik. Artikel itu disiarkan di arXiv, dan kod itu adalah sumber terbuka Semua hasil dalam artikel boleh diterbitkan semula dengan satu klik. Idea kuantifikasi ini adalah berdasarkan pengoptimuman matematik, memodelkan tugasan kuantifikasi dari perspektif pengoptimuman matematik, dan mencari penyelesaian optimum dengan memaksimumkan fungsi objektif atau meminimumkan fungsi kehilangan. Idea ini telah mencapai keputusan yang baik dalam eksperimen dan mencapai keputusan yang memuaskan.

Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16

  • Pautan kertas: https://arxiv.org/abs/2404.12759

  • Pautan projek: https://github.com/bytedance/decoupleQ

  • : https://github.com/bytedance/decoupleQ

: /github.com/NVIDIA/TensorRT-LLM/pull/1568

1. Latar Belakang

Perkembangan pesat teknologi berskala besar telah menjadikan kos inferens semakin tinggi. Kuantifikasi model, sebagai penyelesaian teknikal untuk mengurangkan kos inferens, telah menerima lebih banyak perhatian dan penyelidikan. Walau bagaimanapun, di bawah paradigma pengkuantitian tradisional, ketepatan model menurun dengan cepat pada bit yang sangat rendah. Berdasarkan ini, penulis mencadangkan idea kuantifikasi baharu, menyahganding parameter model menjadi bahagian integer dan bahagian titik terapung, dan memodelkan tugasan kuantifikasi dari perspektif pengoptimuman matematik, supaya model masih boleh mengekalkan ketepatan yang Lebih Tinggi. Kelebihan ini adalah jelas. Kita tidak perlu lagi menumpukan pada isu khusus kuantisasi, seperti cara menangani saluran sensitif, cara menangani outlier, dll. Sebaliknya, kita hanya perlu memodelkan masalah kuantifikasi secara matematik, mencari satu fungsi objektif pengoptimuman yang sesuai, dan kemudian untuk menyelesaikan fungsi ini.

2. Pengkuantitian tradisional

Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16

Secara tradisinya, idea kuantifikasi kami untuk model ialah:

Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16

di mana,

ialah pemberat titik terapung model sebelum pengkuantitian dan skala penjelmaan; titik sifar; α dan β ialah sempadan atas dan bawah bagi julat perwakilan integer Contohnya, untuk kuantisasi int4, α = -8, β = 7 boleh diambil; integer.

Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16 Mengenai nilai s dan z, secara amnya, untuk pengkuantitian asimetri, kita boleh mengambil:

Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16

Dengan cara ini, pemberat titik terapung yang diagihkan dalam

akan dipetakan secara linear ke julat selang

.

Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16Dalam kuantisasi songsang, formula berikut biasanya digunakan:

Dalam skema kuantisasi tradisional ini, kita perlu memberi perhatian kepada banyak isu terperinci yang unik untuk kuantisasi Sebagai contoh, untuk saluran sensitif, kami mempunyai kaedah pemprosesan saluran sensitif ; Untuk outlier, kami mempunyai kaedah pemprosesan outlier. Paradigma pemprosesan untuk merawat sakit kepala dan merawat sakit kepala ini sukar untuk diatasi dengan senario perniagaan yang kompleks dan sentiasa berubah. Penyelidik Bytedance cuba mengabstrakkan isu ini dan melihat isu kuantifikasi dari perspektif makro. Kita hanya perlu mewujudkan fungsi objektif pengoptimuman abstrak dan kemudian menyelesaikan fungsi objektif ini.

🎜3.decoupleQ🎜🎜

Memerhati peranan persamaan (1)~(3) dalam kuantifikasi, jika kita mengubah pemikiran kita, kita akan mendapati bahawa kita sebenarnya tidak perlu mengetahui persamaan (1) dan (2). Selepas kami mengukur model besar dan menyampaikannya kepada pelajar enjin hiliran, kami hanya perlu mengetahui Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16 dan (s,z) dalam persamaan (3). Dalam erti kata lain, (s,z) dalam persamaan (3) boleh dianggap sebagai pekali bagi transformasi afin biasa, dan tidak perlu mengekalkan maknanya dalam persamaan (2). Pekali transformasi affine boleh diperolehi melalui kaedah pengoptimuman matematik.

Menggali lebih lanjut ke dalam (3), kita boleh memisahkan parameter model besar ke dalam bahagian integer Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16 dan bahagian titik terapung (s,z). Selepas penyahgandingan dengan cara ini, proses pengkuantitian model boleh dianggap sebagai proses menyelesaikan bahagian integer Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16 dan bahagian titik terapung (s,z) model. Kami boleh mengoptimumkan penyelesaian secara bergilir-gilir. Untuk tujuan ini, fungsi objektif pengoptimuman dan kekangannya mesti ditentukan.

Untuk lapisan linear, kita boleh membina fungsi objektif pengoptimuman berikut:

Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16

di mana, Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16 ialah input lapisan, Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16 ialah matriks simetri (jika lajur X bukan semua sifar, maka H ialah matriks simetri pasti positif).

Secara umumnya, untuk meningkatkan ketepatan pengkuantitian, kita boleh menggunakan pengkuantitian setiap saluran pada berat model. Dalam pengkuantitian setiap saluran, apabila mengoptimumkan persamaan (4), setiap lajur Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16 dioptimumkan secara bebas. Jadi kita hanya perlu fokus pada salah satu lajur.

Pada ketika ini, matlamat pengoptimuman boleh ditulis seperti berikut: (Demi kesederhanaan notasi, simbol ditakrifkan semula dalam artikel):

Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16

di mana fungsi objektif pengoptimuman adalah

Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16

Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16 , w ialah lajur tertentu Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16, dan b berada dalam

lajur yang sepadan. Takrifan simbol lain adalah sama seperti sebelumnya. 🎜

Malah, fungsi objektif pengoptimuman (6) adalah konsisten sepenuhnya dengan (4), Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16 ialah proses pengkuantitian songsang.

Menukar masalah kuantitatif kepada masalah pengoptimuman matematik dalam bentuk (5) adalah kunci untuk membezakan decoupleQ daripada kertas kuantitatif tradisional. Transformasi ini membolehkan kami hanya menumpukan pada penyelesaian persamaan (5) dan tidak lagi perlu berurusan dengan minutiae pengkuantitian itu sendiri, seperti outlier, dsb.

Penyelesaian persamaan (5) bukanlah mudah kerana terdapat kekangan pada Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16, terutamanya kekangan bukan cembung Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16. Dalam kertas kerja, penulis memberikan idea penyelesaian alternatif, iaitu, setelah mendapat pemulaan yang baik tentang (s,z) dan w, selesaikan secara berulang (s,z) dan w secara bergilir-gilir. Apabila menyelesaikan (s,z), perhatikan bahawa persamaan (5) ialah bentuk kuadratik tidak terhad berkenaan dengan (s,z Anda boleh memperoleh secara langsung fungsi objektif dan membuat terbitan sifar untuk mendapatkan penyelesaian analisis. Apabila menyelesaikan w, pengarang menggunakan dua tahap penghampiran Penghampiran tahap pertama mempunyai penumpuan yang lebih tinggi, tetapi penyelesaiannya adalah perlahan untuk menyampel idea GPTQ [1], yang mempunyai penumpuan sedikit lebih lemah, tetapi penyelesaiannya adalah perlahan; lebih cepat.

Untuk meningkatkan lagi ketepatan model terkuantisasi, penulis menegaskan bahawa selain melakukan pengecilan mse pada peringkat lapisan, pengecilan mse juga boleh dilakukan pada peringkat blok, iaitu:

Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16

Dalam langkah ini, pengarang pada tahap blok pengubah, Selepas mengkuantisasi setiap lapisan linear, betulkan bahagian integernya Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16 dan perhalusi bahagian titik terapung (s, z) dan parameter yang berkaitan dengan norma lapisan. Keputusan eksperimen menunjukkan bahawa langkah penalaan halus ini boleh meningkatkan lagi ketepatan model.

4. Pelaksanaan operator W2

Untuk menyimpulkan model terkuantisasi, sokongan operator terkuantisasi diperlukan Tidak ada operator w2a16 siap sedia yang tersedia dalam industri ini. LLM Membangunkan inti Gemm cuda w2 untuk mencapai inferens yang cekap bagi model w2a16.

Model kuantisasi itu sendiri dimuatkan dan disimpan dalam memori video dalam bentuk berat 2-bit, jadi ia akan menduduki jumlah memori video yang agak kecil. Kernel cuda kami memuatkan berat 2-bit ke dalam daftar pada masa jalan, dan kemudian menggunakan arahan perkakasan untuk menukarnya dengan cekap ke dalam bentuk bf16 dan melaksanakan operasi gemm dengan pengaktifan. Oleh kerana senario kami terhad oleh kependaman, saiz kelompok dalam peringkat penjanaan adalah agak kecil Pada masa ini, pendaraban matriks dihadkan oleh akses memori berat Pelaksanaan ini akan mengurangkan jumlah akses memori dan meningkatkan prestasi model. Semasa proses pelaksanaan, carian algoritma dan SpiltK Parallel Reduce digabungkan untuk meningkatkan lagi prestasi model Mengikut ukuran sebenar, apabila saiz kumpulan=1, prestasi w2a16 Gemm pada kad L boleh dipertingkatkan sebanyak 1.4x-1.7x. berbanding w4a16.

Operator Pautan: https://github.com/nvidia/tensorrt-llm/pull/1568

Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16

5. , dan keputusan perbandingan dengan eksperimen sumber terbuka diberikan:

Keputusan percubaan dalaman ialah:

Dalam jadual ini, penulis menggunakan perkataan err rate (WER) untuk mengukur ketepatan ASR. Penulis cuba mengukur model kepada W2A16g64 menggunakan kaedah yang berbeza. Nilai bagi model titik terapung sebelum kuantisasi ialah 6.68%. model titik terapung sebelum kuantisasi dekat. Ia juga melaporkan masa yang diperlukan untuk kuantifikasi. Harga ketepatan kuantisasi yang tinggi ialah kuantisasi mengambil masa yang lama. Dalam perniagaan sebenar, selepas menggunakan decoupleQ untuk mengukur model, bahagian integer ditetapkan, dan set data berlabel digunakan untuk memperhalusi skala dan sifar, dan ketepatan model dipertingkatkan lagi.

Hasil eksperimen perbandingan sumber terbuka ialah:

Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16

Jadual ini ialah perbandingan hasil kuantitatif decoupleQ dan kaedah lain pada Llama-1/2. Perplexity (PPL) digunakan sebagai indeks penilaian. Ia boleh dilihat bahawa di bawah konfigurasi pengkuantitian yang sama, PPL deoucpleQ akan lebih rendah daripada kaedah lain pada kebanyakan masa.

6. Faedah Perniagaan

teknologi pengiraan decoupleQ kini digunakan secara meluas dalam jabatan suara ByteDance. Ia telah dilancarkan dalam model penjanaan pertuturan (Text-to-Speech), model pengecaman pertuturan (pengecaman pertuturan automatik), dsb., dan telah dilaksanakan dalam produk seperti Doubao, Feishu dan Douyin. Sebilangan besar perniagaan dalam talian menunjukkan bahawa berdasarkan kuantifikasi decoupleQ, ketepatan inferens W4A16 sepenuhnya setanding dengan inferens fp16/bf16, ketepatan W2A16 hanya lebih buruk sedikit daripada ketepatan fp16/bf16 (selepas bahagian titik terapung sft, ketepatan adalah pada tahap yang sama seperti fp16/bf16) ). Walaupun kertas itu hanya memperkenalkan kuantifikasi berat sahaja, dalam perniagaan sebenar, selepas berat dikira dengan baik, kuantifikasi pengaktifan boleh menjadi lebih mudah.

Berbanding dengan fp16, w8fp16, dan w4fp16, ia telah mencapai kesan pecutan yang baik dari segi pecutan perkakasan Dalam kelompok kecil, prestasi pendaraban matriks w2 adalah 5-6 kali lebih tinggi daripada fp16, dan 1.5-1.7 kali lebih tinggi daripada w. . Dari segi model perniagaan dalaman, w2fp16 mempunyai peningkatan prestasi sebanyak 3-5 kali berbanding dengan fp16, dan peningkatan prestasi sebanyak 1.25-1.4 kali berbanding w4fp16 Ia juga akan mengurangkan memori yang diduduki oleh berat model, memberikan memori yang lebih baik penggunaan untuk masa larian yang banyak.

Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16

Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16

7. Ringkasan dan Perbincangan

Dalam bahagian ringkasan dan perbincangan, penulis juga menunjukkan dua risiko yang ada pada kaedah decoupleQ pada masa ini:

to optimization quantitization kerugian sebelum dan selepas diminimumkan. Walau bagaimanapun, meminimumkan kehilangan L2 pada tahap lapisan atau tahap blok mungkin tidak semestinya mewakili ketepatan optimum model akhir

2 Dalam proses pengoptimuman persamaan (5) dan (7), apabila menyelesaikan

dan (s,z. ), hanya sebahagian kecil daripada data penentukuran diselesaikan, yang menjadikan decoupleQ mudah untuk mengatasi data penentukuran. Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16

Namun begitu, penulis juga menegaskan bahawa idea untuk memisahkan parameter model kepada bahagian integer dan bahagian titik terapung adalah sangat bermakna. Jika set data berlabel wujud, kami boleh membetulkan bahagian integer selepas pengiraan dan menggunakan set data berlabel untuk melatih (s, z) secara khusus untuk meningkatkan lagi ketepatan model. Ini bukan sahaja memastikan prestasi generalisasi model (diperoleh daripada bahagian integer tetapIdea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16), tetapi juga boleh menggunakan keupayaannya pada subtugas tertentu (diperoleh daripada bahagian titik terapung yang ditala halus). Dalam perniagaan sebenar ByteDance, selepas versi model sebelumnya dikira dan diletakkan dalam talian, apabila versi seterusnya dikemas kini, hanya bahagian titik terapung model boleh dilatih.

References:

【1】 Elias Frantar, Saleh Ashkboos, Torsten Hoefler, dan Dan Alistarh.

【2】Wenqi Shao, Mengzhao Chen, Zhaoyang Zhang, Peng Xu, Lirui Zhao, Zhiqian Li, Kaipeng Zhang, Peng Gao, Yu Qiao dan Ping Luo Omniquant: Omnidirectional language model quantization arXiv:2308.13137, 2023

【3】Ji Lin, Jiaming Tang, Haotian Tang, Shang Yang, Xingyu Dang dan Song Han: Pengkuantitian berat arXiv. sedar pengaktifan. 2306.00978, 2023.

Atas ialah kandungan terperinci Idea baharu untuk pengkuantifikasian model besar sumber terbuka bait, ketepatan model pengkuantitian 2-bit adalah setanding dengan fp16. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

Video Face Swap

Video Face Swap

Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas

Tutorial Java
1663
14
Tutorial PHP
1266
29
Tutorial C#
1239
24
Pengarang ControlNet mendapat satu lagi kejayaan! Seluruh proses menghasilkan lukisan daripada gambar, memperoleh 1.4k bintang dalam masa dua hari Pengarang ControlNet mendapat satu lagi kejayaan! Seluruh proses menghasilkan lukisan daripada gambar, memperoleh 1.4k bintang dalam masa dua hari Jul 17, 2024 am 01:56 AM

Ia juga merupakan video Tusheng, tetapi PaintsUndo telah mengambil laluan yang berbeza. Pengarang ControlNet LvminZhang mula hidup semula! Kali ini saya menyasarkan bidang lukisan. Projek baharu PaintsUndo telah menerima 1.4kstar (masih meningkat secara menggila) tidak lama selepas ia dilancarkan. Alamat projek: https://github.com/lllyasviel/Paints-UNDO Melalui projek ini, pengguna memasukkan imej statik, dan PaintsUndo secara automatik boleh membantu anda menjana video keseluruhan proses mengecat, daripada draf baris hingga produk siap . Semasa proses lukisan, perubahan garisan adalah menakjubkan Hasil akhir video sangat serupa dengan imej asal: Mari kita lihat lukisan lengkap.

Mendahului senarai jurutera perisian AI sumber terbuka, penyelesaian tanpa ejen UIUC dengan mudah menyelesaikan masalah pengaturcaraan sebenar SWE-bench Mendahului senarai jurutera perisian AI sumber terbuka, penyelesaian tanpa ejen UIUC dengan mudah menyelesaikan masalah pengaturcaraan sebenar SWE-bench Jul 17, 2024 pm 10:02 PM

Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Semua pengarang kertas kerja ini adalah daripada pasukan guru Zhang Lingming di Universiti Illinois di Urbana-Champaign (UIUC), termasuk: Steven Code repair; pelajar kedoktoran tahun empat, penyelidik

Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun 'peringkat token' Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun 'peringkat token' Jun 24, 2024 pm 03:04 PM

Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Dalam proses pembangunan kecerdasan buatan, kawalan dan bimbingan model bahasa besar (LLM) sentiasa menjadi salah satu cabaran utama, bertujuan untuk memastikan model ini adalah kedua-duanya. berkuasa dan selamat untuk masyarakat manusia. Usaha awal tertumpu kepada kaedah pembelajaran pengukuhan melalui maklum balas manusia (RL

Kertas arXiv boleh disiarkan sebagai 'bertubi-tubi', platform perbincangan Stanford alphaXiv dalam talian, LeCun menyukainya Kertas arXiv boleh disiarkan sebagai 'bertubi-tubi', platform perbincangan Stanford alphaXiv dalam talian, LeCun menyukainya Aug 01, 2024 pm 05:18 PM

sorakan! Bagaimana rasanya apabila perbincangan kertas adalah perkataan? Baru-baru ini, pelajar di Universiti Stanford mencipta alphaXiv, forum perbincangan terbuka untuk kertas arXiv yang membenarkan soalan dan ulasan disiarkan terus pada mana-mana kertas arXiv. Pautan laman web: https://alphaxiv.org/ Malah, tidak perlu melawati tapak web ini secara khusus. Hanya tukar arXiv dalam mana-mana URL kepada alphaXiv untuk terus membuka kertas yang sepadan di forum alphaXiv: anda boleh mencari perenggan dengan tepat dalam. kertas itu, Ayat: Dalam ruang perbincangan di sebelah kanan, pengguna boleh menyiarkan soalan untuk bertanya kepada pengarang tentang idea dan butiran kertas tersebut Sebagai contoh, mereka juga boleh mengulas kandungan kertas tersebut, seperti: "Diberikan kepada

Kerja selepas kematian Pasukan Penyelarasan Super OpenAI: Dua model besar bermain permainan, dan output menjadi lebih mudah difahami Kerja selepas kematian Pasukan Penyelarasan Super OpenAI: Dua model besar bermain permainan, dan output menjadi lebih mudah difahami Jul 19, 2024 am 01:29 AM

Jika jawapan yang diberikan oleh model AI tidak dapat difahami sama sekali, adakah anda berani menggunakannya? Memandangkan sistem pembelajaran mesin digunakan dalam bidang yang lebih penting, menjadi semakin penting untuk menunjukkan sebab kita boleh mempercayai output mereka, dan bila tidak mempercayainya. Satu cara yang mungkin untuk mendapatkan kepercayaan dalam output sistem yang kompleks adalah dengan menghendaki sistem menghasilkan tafsiran outputnya yang boleh dibaca oleh manusia atau sistem lain yang dipercayai, iaitu, difahami sepenuhnya sehingga apa-apa ralat yang mungkin boleh dilakukan. dijumpai. Contohnya, untuk membina kepercayaan dalam sistem kehakiman, kami memerlukan mahkamah memberikan pendapat bertulis yang jelas dan boleh dibaca yang menjelaskan dan menyokong keputusan mereka. Untuk model bahasa yang besar, kita juga boleh menggunakan pendekatan yang sama. Walau bagaimanapun, apabila mengambil pendekatan ini, pastikan model bahasa menjana

Satu kejayaan ketara dalam Hipotesis Riemann! Tao Zhexuan amat mengesyorkan kertas kerja baharu daripada MIT dan Oxford, dan pemenang Fields Medal berusia 37 tahun mengambil bahagian Satu kejayaan ketara dalam Hipotesis Riemann! Tao Zhexuan amat mengesyorkan kertas kerja baharu daripada MIT dan Oxford, dan pemenang Fields Medal berusia 37 tahun mengambil bahagian Aug 05, 2024 pm 03:32 PM

Baru-baru ini, Hipotesis Riemann, yang dikenali sebagai salah satu daripada tujuh masalah utama milenium, telah mencapai kejayaan baharu. Hipotesis Riemann ialah masalah yang tidak dapat diselesaikan yang sangat penting dalam matematik, berkaitan dengan sifat tepat taburan nombor perdana (nombor perdana ialah nombor yang hanya boleh dibahagikan dengan 1 dan dirinya sendiri, dan ia memainkan peranan asas dalam teori nombor). Dalam kesusasteraan matematik hari ini, terdapat lebih daripada seribu proposisi matematik berdasarkan penubuhan Hipotesis Riemann (atau bentuk umumnya). Dalam erti kata lain, sebaik sahaja Hipotesis Riemann dan bentuk umumnya dibuktikan, lebih daripada seribu proposisi ini akan ditetapkan sebagai teorem, yang akan memberi kesan yang mendalam terhadap bidang matematik dan jika Hipotesis Riemann terbukti salah, maka antara cadangan ini sebahagian daripadanya juga akan kehilangan keberkesanannya. Kejayaan baharu datang daripada profesor matematik MIT Larry Guth dan Universiti Oxford

MLLM berasaskan Mamba yang pertama ada di sini! Berat model, kod latihan, dsb. semuanya telah menjadi sumber terbuka MLLM berasaskan Mamba yang pertama ada di sini! Berat model, kod latihan, dsb. semuanya telah menjadi sumber terbuka Jul 17, 2024 am 02:46 AM

Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com. Pengenalan Dalam beberapa tahun kebelakangan ini, aplikasi model bahasa besar multimodal (MLLM) dalam pelbagai bidang telah mencapai kejayaan yang luar biasa. Walau bagaimanapun, sebagai model asas untuk banyak tugas hiliran, MLLM semasa terdiri daripada rangkaian Transformer yang terkenal, yang

LLM sememangnya tidak bagus untuk ramalan siri masa Ia bahkan tidak menggunakan keupayaan penaakulannya. LLM sememangnya tidak bagus untuk ramalan siri masa Ia bahkan tidak menggunakan keupayaan penaakulannya. Jul 15, 2024 pm 03:59 PM

Bolehkah model bahasa benar-benar digunakan untuk ramalan siri masa? Menurut Undang-undang Tajuk Berita Betteridge (sebarang tajuk berita yang berakhir dengan tanda soal boleh dijawab dengan "tidak"), jawapannya mestilah tidak. Fakta nampaknya benar: LLM yang begitu berkuasa tidak dapat mengendalikan data siri masa dengan baik. Siri masa, iaitu, siri masa, seperti namanya, merujuk kepada satu set jujukan titik data yang disusun mengikut urutan masa. Analisis siri masa adalah kritikal dalam banyak bidang, termasuk ramalan penyebaran penyakit, analisis runcit, penjagaan kesihatan dan kewangan. Dalam bidang analisis siri masa, ramai penyelidik baru-baru ini mengkaji cara menggunakan model bahasa besar (LLM) untuk mengelas, meramal dan mengesan anomali dalam siri masa. Makalah ini menganggap bahawa model bahasa yang pandai mengendalikan kebergantungan berjujukan dalam teks juga boleh digeneralisasikan kepada siri masa.

See all articles