Rumah > Peranti teknologi > AI > LeCun memuji $600 GPT-3.5 sebagai pengganti perkakasan! Parameter 7 bilion Stanford 'Alpaca' popular, LLaMA berprestasi hebat!

LeCun memuji $600 GPT-3.5 sebagai pengganti perkakasan! Parameter 7 bilion Stanford 'Alpaca' popular, LLaMA berprestasi hebat!

王林
Lepaskan: 2023-04-23 16:04:08
ke hadapan
1069 orang telah melayarinya

Apabila saya bangun, model besar Stanford Alpaca menjadi popular.

LeCun狂赞:600刀GPT-3.5平替! 斯坦福70亿参数「羊驼」爆火,LLaMA杀疯了

Ya, Alpaca ialah model baharu yang diperhalusi daripada LLaMA 7B Meta sahaja 52k data digunakan, dan prestasinya lebih kurang sama dengan GPT-3.5.

Kuncinya ialah kos latihan amat rendah, kurang daripada 600 dolar AS. Kos khusus adalah seperti berikut:

Dilatih pada 8 80GB A100s selama 3 jam, kurang daripada 100 dolar AS

Jana data menggunakan API OpenAI, $500.

Percy Liang, profesor madya sains komputer di Universiti Stanford, berkata disebabkan kekurangan ketelusan/ketidakupayaan untuk mengakses sepenuhnya model arahan yang berkebolehan seperti GPT 3.5 , sekali gus mengehadkan penyelidikan akademik dalam bidang penting ini. Kami mengambil langkah kecil ke hadapan dengan Alpaca (LLaMA 7B + text-davinci-003).

LeCun狂赞:600刀GPT-3.5平替! 斯坦福70亿参数「羊驼」爆火,LLaMA杀疯了

Melihat orang lain telah mencapai hasil baharu pada model besar mereka sendiri, Yann LeCun telah mengetweet semula ia seperti orang gila (keperluan publisiti berada di tempat)).

LeCun狂赞:600刀GPT-3.5平替! 斯坦福70亿参数「羊驼」爆火,LLaMA杀疯了

LeCun狂赞:600刀GPT-3.5平替! 斯坦福70亿参数「羊驼」爆火,LLaMA杀疯了

Memperhalusi 7 bilion parameter dalam 3 jam, 600 Dapatkannya dengan dolar AS

Tanpa berlengah lagi, mari cuba dahulu.

S: Beritahu saya sesuatu tentang alpacas.

J: Alpacas ialah spesies unta dari Amerika Selatan, berkaitan dengan llama dan unta. Mereka sering dibesarkan untuk seratnya dan digunakan untuk membuat barangan mewah seperti baju sejuk dan selimut. Alpacas juga merupakan haiwan peliharaan yang popular kerana sifatnya yang lembut dan mesra.

Pautan pengalaman: https://crfm.stanford.edu/alpaca/

LeCun狂赞:600刀GPT-3.5平替! 斯坦福70亿参数「羊驼」爆火,LLaMA杀疯了

Bagi pasukan Stanford, jika mereka ingin melatih arahan berkualiti tinggi mengikut model dalam bajet, mereka mesti menghadapi dua cabaran penting: mempunyai kuasa pra- model bahasa terlatih, dan data mengikut arahan yang berkualiti tinggi.

Tepat sekali, model LLaMA yang diberikan kepada penyelidik akademik menyelesaikan masalah pertama.

Untuk cabaran kedua, kertas kerja "Self-Instruct: Aligning Language Model with Self Generated Instructions" memberi inspirasi yang baik iaitu menggunakan bahasa Kuat sedia ada. model untuk menjana data arahan secara automatik.

Walau bagaimanapun, kelemahan terbesar model LLaMA ialah kekurangan penalaan halus arahan. Salah satu inovasi terbesar OpenAI ialah penggunaan penalaan arahan pada GPT-3.

Dalam hal ini, Stanford menggunakan model bahasa besar sedia ada untuk menjana secara automatik demonstrasi arahan berikut.

LeCun狂赞:600刀GPT-3.5平替! 斯坦福70亿参数「羊驼」爆火,LLaMA杀疯了

Mulakan dengan 175 pasangan "arahan-output" yang ditulis secara manual daripada set benih arahan yang dijana sendiri, kemudian, teks gesaan- davinci -003 menggunakan set benih sebagai contoh kontekstual untuk menjana lebih banyak arahan.

Meningkatkan kaedah arahan penjanaan sendiri dengan memudahkan saluran paip penjanaan, yang sangat mengurangkan kos. Semasa proses penjanaan data, 52K arahan unik dan output yang sepadan telah dihasilkan, berharga kurang daripada $500 menggunakan API OpenAI.

Dengan set data mengikut arahan ini di tangan, penyelidik menggunakan rangka kerja latihan Hugging Face untuk memperhalusi model LLaMA, memanfaatkan selari data berpecah sepenuhnya (FSDP) ) dan latihan ketepatan campuran dan teknik lain.

Selain itu, penalaan halus model 7B LLaMA mengambil masa lebih 3 jam pada 8 80GB A100s, dengan kos kebanyakan penyedia awan Kurang daripada $100.

Lebih kurang sama dengan GPT-3.5 Dikendalikan oleh 5 pelajar pengarang).

Koleksi ulasan ini dikumpulkan oleh pengarang arahan yang dijana sendiri dan merangkumi pelbagai arahan yang dihadapi pengguna, termasuk penulisan e-mel, media sosial dan produktiviti alat tunggu.

Mereka membandingkan GPT-3.5 (text-davinci-003) dan Alpaca 7B dan mendapati bahawa prestasi kedua-dua model adalah sangat serupa. Alpaca menang 90 berbanding 89 kali menentang GPT-3.5.

Memandangkan saiz model yang kecil dan jumlah data arahan yang kecil, keputusan ini sudah cukup menakjubkan.

Selain menggunakan set penilaian statik ini, mereka juga menjalankan ujian interaktif pada model Alpaca dan mendapati prestasi Alpaca pada pelbagai input selalunya sama dengan GPT -3.5 persamaan.

Demonstrasi Stanford dengan Alpaca:

Demo 1 Biar Alpaca bercakap Perbezaan antara saya dan LLaMA.

LeCun狂赞:600刀GPT-3.5平替! 斯坦福70亿参数「羊驼」爆火,LLaMA杀疯了

Demonstrasi 2 meminta Alpaca menulis e-mel kandungannya ringkas dan jelas formatnya sangat baik.

LeCun狂赞:600刀GPT-3.5平替! 斯坦福70亿参数「羊驼」爆火,LLaMA杀疯了

Seperti yang dapat dilihat daripada contoh di atas, hasil keluaran Alpaca secara amnya ditulis dengan baik, dan Jawapan biasanya lebih pendek daripada ChatGPT, mencerminkan gaya keluaran GPT-3.5 yang lebih pendek.

Sudah tentu, Alpaca mempamerkan kelemahan biasa dalam model bahasa.

Sebagai contoh, ibu kota Tanzania dipanggil Dar es Salaam. Malah, selepas 1974, Dodoma menjadi ibu kota baharu Tanzania, dan Dar es Salaam hanyalah bandar terbesar di Tanzania.

LeCun狂赞:600刀GPT-3.5平替! 斯坦福70亿参数「羊驼」爆火,LLaMA杀疯了

Alpaca menyebarkan maklumat salah apabila menulis abstrak yang bernas.

LeCun狂赞:600刀GPT-3.5平替! 斯坦福70亿参数「羊驼」爆火,LLaMA杀疯了

Selain itu, Alpaca mungkin mempunyai banyak batasan yang berkaitan dengan model bahasa asas dan data penalaan halus arahan. Walau bagaimanapun, Alpaca membekalkan kami model yang agak ringan yang boleh menjadi asas untuk kajian masa depan tentang kelemahan penting dalam model yang lebih besar.

Pada masa ini, Stanford hanya mengumumkan kaedah dan data latihan Alpaca, dan merancang untuk melepaskan pemberat model pada masa hadapan.

Walau bagaimanapun, Alpaca tidak boleh digunakan untuk tujuan komersial dan hanya boleh digunakan untuk penyelidikan akademik. Terdapat tiga sebab khusus:

1 LLaMA ialah model berlesen bukan komersial, dan Alpaca dijana berdasarkan model ini

2. Data arahan adalah berdasarkan teks-davinci-003 OpenAI, yang syarat penggunaannya melarang pembangunan model yang bersaing dengan OpenAI; 3. Tidak cukup langkah keselamatan telah direka, jadi Alpaca tidak bersedia untuk digunakan secara meluas

Selain itu, penyelidik Stanford menyimpulkan penyelidikan masa depan Alpaca akan mempunyai tiga arah.

Penilaian:

  • Daripada HELM (Model Bahasa) Penilaian holistik) mula menangkap senario susulan yang lebih generatif.

Keselamatan:

  • Kajian lanjut tentang risiko Alpaca, Dan tingkatkan keselamatannya menggunakan kaedah seperti penggabungan merah automatik, pengauditan dan ujian penyesuaian.

Pemahaman:

  • Berharap untuk memahami dengan lebih baik Bagaimana model keupayaan muncul daripada kaedah latihan. Apakah sifat model asas yang diperlukan? Apa yang berlaku apabila anda meningkatkan model anda? Apakah atribut data arahan yang diperlukan? Pada GPT-3.5, apakah alternatif untuk menggunakan arahan yang dijana sendiri?

Resapan Stabil bagi model besar

Kini, Stanford "Alpaca" secara langsung dianggap sebagai "Resapan Stabil model teks besar" oleh netizen.

Model LLaMA Meta boleh digunakan oleh penyelidik secara percuma (selepas aplikasi sudah tentu), yang merupakan manfaat besar kepada kalangan AI.

Sejak kemunculan ChatGPT, ramai orang telah kecewa dengan batasan terbina dalam model AI. Sekatan ini menghalang ChatGPT daripada membincangkan topik yang OpenAI anggap sensitif.

Oleh itu, komuniti AI berharap untuk mempunyai model bahasa besar (LLM) sumber terbuka yang boleh dijalankan secara tempatan tanpa penapisan atau melaporkan kepada OpenAI Pay the Bayaran API.

Model besar sumber terbuka sedemikian kini tersedia, seperti GPT-J, tetapi kelemahannya ialah ia memerlukan banyak memori GPU dan ruang storan.

Sebaliknya, alternatif sumber terbuka lain tidak boleh mencapai prestasi tahap GPT-3 pada perkakasan pengguna luar biasa.

Pada penghujung Februari, Meta melancarkan model bahasa terbaru LLaMA, dengan jumlah parameter 7 bilion (7B), 13 bilion (13B) dan 33 bilion (33B) dan 65 bilion (65B). Keputusan penilaian menunjukkan bahawa versi 13Bnya adalah setanding dengan GPT-3.

Alamat kertas: https://research.facebook.com/publications/llama-open-and-efficient-foundation-language-models/

Walaupun Meta membuka kod sumber kepada penyelidik yang lulus aplikasi, tidak disangka netizen terlebih dahulu membocorkan berat LLaMA di GitHub.

Sejak itu, perkembangan sekitar model bahasa LLaMA telah meletup.

Lazimnya, menjalankan GPT-3 memerlukan berbilang GPU A100 gred pusat data, ditambah dengan pemberat untuk GPT-3 tidak terbuka.

Netizen mula menjalankan sendiri model LLaMA, menyebabkan sensasi.

Mengoptimumkan saiz model melalui teknik pengkuantitian, LLaMA kini boleh dijalankan pada Mac M1, GPU pengguna Nvidia yang lebih kecil, telefon Pixel 6 dan juga Raspberry Pi dijalankan.

Netizen meringkaskan beberapa pencapaian yang telah dicapai oleh semua orang menggunakan LLaMA sejak pengeluaran LLaMA hingga sekarang:

Pada 24 Februari, LLaMA telah dikeluarkan dan tersedia di bawah lesen bukan komersial kepada penyelidik dan entiti yang bekerja dalam kerajaan, komuniti dan akademia

Pada 2 Mac, netizen 4chan membocorkan semua model LLaMA;

Pada 10 Mac, Georgi Gerganov mencipta alat llama.cpp Mac dilengkapi dengan cip M1/M2;

11 Mac: Model 7B boleh dijalankan pada 4GB RaspberryPi melalui llama.cpp, tetapi kelajuannya agak perlahan, hanya 10 saat/token;

12 Mac: LLaMA 7B berjaya dijalankan pada NPX alat pelaksanaan node.js; >13 Mac: llama.cpp boleh dijalankan pada telefon Pixel 6;

Dan Kini, Stanford Alpaca "Alpaca" dikeluarkan.

Satu Perkara Lagi

Tidak lama selepas projek itu dikeluarkan, Alpaca menjadi begitu popular sehingga tidak boleh digunakan lagi....

Atas ialah kandungan terperinci LeCun memuji $600 GPT-3.5 sebagai pengganti perkakasan! Parameter 7 bilion Stanford 'Alpaca' popular, LLaMA berprestasi hebat!. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:51cto.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan