Rumah > Peranti teknologi > AI > teks badan

Model LLaMA telah dibocorkan, dan versi Meta ChatGPT terpaksa menjadi 'sumber terbuka'! GitHub memperoleh 8k bintang dan sejumlah besar ulasan dikeluarkan

WBOY
Lepaskan: 2023-04-12 17:49:03
ke hadapan
1408 orang telah melayarinya

Pertempuran untuk ChatGPT semakin sengit.

Beberapa minggu lalu, Meta mengeluarkan model bahasa berskala besarnya sendiri LLaMA, dengan parameter antara 7 bilion hingga 65 bilion.

Dalam kertas itu, LLaMA (13 bilion) dengan hanya 1/10 parameter mengatasi GPT-3 pada kebanyakan penanda aras.

Untuk LLaMA dengan 65 bilion parameter, ia setanding dengan DeepMind’s Chinchilla (70 bilion parameter) dan Google PaLM (540 bilion parameter).

Walaupun Meta mendakwa bahawa LLaMA adalah sumber terbuka, penyelidik masih perlu memohon dan menyemaknya.

Walau bagaimanapun, perkara yang tidak pernah saya jangkakan ialah hanya beberapa hari selepas dikeluarkan, fail model LLaMA telah bocor lebih awal.

Lalu, timbul persoalan, adakah ini disengajakan atau tidak sengaja?

LLaMA adalah "sumber terbuka" ?

Baru-baru ini, perpustakaan produk siap LLaMA telah bocor di forum asing 4chan.

Model LLaMA telah dibocorkan, dan versi Meta ChatGPT terpaksa menjadi sumber terbuka! GitHub memperoleh 8k bintang dan sejumlah besar ulasan dikeluarkan

Khamis lalu, llamanon pengguna menyiarkan pada papan teknologi 4chan melalui Keluaran torrent (torrent) daripada model LLaMA 7B dan 65B.

Model LLaMA telah dibocorkan, dan versi Meta ChatGPT terpaksa menjadi sumber terbuka! GitHub memperoleh 8k bintang dan sejumlah besar ulasan dikeluarkan

Pautan torrent ini pada masa ini disekat Digabungkan ke dalam halaman GitHub LLaMA.

Dia juga menyerahkan permintaan tarik kedua kepada projek itu, yang memberikan pautan benih kepada set pemberat lain untuk model itu.

Pada masa ini, projek itu telah menerima 8k bintang di GitHub.

Walau bagaimanapun, salah satu kesilapan terbesar pembocor ialah memasukkan kod pengecam unik mereka dalam model yang bocor.

Kod ini direka khusus untuk mengesan pembocor, meletakkan maklumat peribadi pengguna llamanon pada risiko.

Bak kata pepatah, LLaMA bukan sumber terbuka dan tidak sopan, tetapi netizen membantu untuk menjadi sopan.

Selain itu, pengguna di 4chan telah mencipta sumber yang berguna untuk mereka yang ingin menggunakan model pada stesen kerja mereka sendiri.

dan menyediakan panduan kepada tutorial pengedaran tentang cara mendapatkan model dan menambah pemberat yang diubah suai padanya untuk inferens yang lebih cekap.

Apatah lagi, sumber ini juga menyediakan cara untuk menyepadukan LLaMA ke dalam platform penulisan dalam talian KoboldAI.

Model LLaMA telah dibocorkan, dan versi Meta ChatGPT terpaksa menjadi sumber terbuka! GitHub memperoleh 8k bintang dan sejumlah besar ulasan dikeluarkan

Sama ada Meta melakukan ini secara sengaja atau tidak sengaja membocorkannya. Netizen meluahkan pendapat mereka satu demi satu.

Analisis netizen sangat jelas, "Mungkin Meta sengaja membocorkannya untuk melawan OpenAI."

Sesetengah pelanggan berpendapat ini adalah model yang lebih baik dan ia sesuai di tengah-tengah rancangan perniagaan mereka untuk menjual akses pada harga $250,000 setahun. Sebulan akses kepada perkhidmatan mereka membeli mesin yang mampu menjalankan model yang bocor ini. Meta mengurangkan pesaing baru yang berpotensi untuk memastikan kartel teknologi besar semasa stabil. Mungkin ini adalah sedikit teori konspirasi, tetapi kita hidup dalam zaman teknologi besar dan konspirasi besar.

Pada hari Isnin, Meta berkata ia akan terus mengeluarkan alatan kecerdasan buatannya kepada penyelidik bertauliah walaupun LLaMA telah dibocorkan kepada pengguna yang tidak dibenarkan.

Sesetengah netizen secara langsung mengatakan bahawa mereka memuat turun LLaMA dengan 7 bilion parameter Walaupun mereka tidak tahu cara menjalankannya, mereka boleh mendapatkannya sekiranya mereka memerlukannya pada masa hadapan.

Model LLaMA telah dibocorkan, dan versi Meta ChatGPT terpaksa menjadi sumber terbuka! GitHub memperoleh 8k bintang dan sejumlah besar ulasan dikeluarkan

Kebocoran dan sumber terbuka LLaMA ialah acara besar:

Resapan Stabil ialah sumber terbuka. Lapan bulan kemudian, kita kini boleh membaca fikiran orang lain dan menyahkod semua yang mereka lihat.

Dengan pembukaan LLM, kami akan mendapat beberapa barangan yang sangat gila.

Model LLaMA telah dibocorkan, dan versi Meta ChatGPT terpaksa menjadi sumber terbuka! GitHub memperoleh 8k bintang dan sejumlah besar ulasan dikeluarkan

Penilaian model awal

Tidak lama selepas LLaMA dikeluarkan, netizen mendapati ini Model parameter terkecil juga memerlukan hampir 30GB GPU untuk dijalankan.

Walau bagaimanapun, dengan pengoptimuman titik terapung menggunakan perpustakaan Bit dan Byte, mereka dapat menjalankan model pada NVIDIA RTX 3060 tunggal.

Tambahan pula, seorang penyelidik di GitHub malah dapat menjalankan versi 7B LLM pada CPU Ryzen 7900X dan membuat kesimpulan beberapa perkataan sesaat.

Jadi apakah sebenarnya model LLaMA itu? Lelaki asing menyemaknya.

Model LLaMA telah dibocorkan, dan versi Meta ChatGPT terpaksa menjadi sumber terbuka! GitHub memperoleh 8k bintang dan sejumlah besar ulasan dikeluarkan


LLaMA menunjukkan prestasi yang baik dalam banyak ujian.

Dari segi pemahaman bahasa pelbagai tugas berskala besar, model 13B yang agak kecil pun setanding dengan GPT-3 iaitu saiz 13 kali.

Versi 33B jauh lebih baik daripada GPT-3, dan versi 65B boleh bersaing dengan model LLM sedia ada yang paling berkuasa - PaLM parameter 540B Google.

Model LLaMA telah dibocorkan, dan versi Meta ChatGPT terpaksa menjadi sumber terbuka! GitHub memperoleh 8k bintang dan sejumlah besar ulasan dikeluarkan

Untuk teks yang memerlukan penggunaan logik atau pengiraan untuk pemprosesan, LLaMA berprestasi baik dan boleh bersaing dengan PaLM dalam penaakulan kuantitatif Berbanding dengan, atau lebih baik daripada keupayaan penjanaan kod yang terakhir.

Model LLaMA telah dibocorkan, dan versi Meta ChatGPT terpaksa menjadi sumber terbuka! GitHub memperoleh 8k bintang dan sejumlah besar ulasan dikeluarkan

Memandangkan keputusan ini, LLaMA nampaknya merupakan salah satu model tercanggih yang tersedia pada masa ini, dan, Ia cukup kecil sehingga ia tidak memerlukan banyak sumber untuk dijalankan. Ini menjadikan LLaMA sangat menggoda untuk orang ramai mahu bermain dengannya dan melihat apa yang boleh dilakukannya.

Menjelaskan jenaka

Kertas asal PaLM menunjukkan kes penggunaan yang sangat keren: diberi jenaka, biarkan model menerangkan sebab ia lucu. Tugas ini memerlukan gabungan percubaan dan logik, yang tidak dapat dicapai oleh semua model PaLM sebelumnya.

Serahkan beberapa jenaka kepada LLaMA dan ChatGPT untuk tafsiran Sesetengah model bahasa jenaka boleh mendapatkannya, seperti ucapan Schimidhuber yang panjang dan membosankan.

Model LLaMA telah dibocorkan, dan versi Meta ChatGPT terpaksa menjadi sumber terbuka! GitHub memperoleh 8k bintang dan sejumlah besar ulasan dikeluarkan

Tetapi secara keseluruhan, kedua-dua LLaMA dan ChatGPT tidak mempunyai rasa jenaka.

Walau bagaimanapun, kedua-duanya mempunyai strategi yang berbeza untuk menangani jenaka yang mereka tidak fahami ChatGPT akan menghasilkan "dinding teks", dengan harapan sekurang-kurangnya beberapa ayat adalah jawapan yang betul, tingkah laku ini seperti pelajar yang tidak tahu jawapan, dengan harapan guru dapat mencari jawapan dari karut mereka.

Pengkelasan sampel sifar

Ini adalah fungsi yang sangat praktikal yang membolehkan orang ramai menggunakan LLM dan bukannya menjaringkan menjana set latihan dan kemudian melatih model yang boleh diservis yang lebih kecil pada set latihan tersebut.

Tugas yang lebih mencabar ialah mengklasifikasikan iklan yang diklik, kerana manusia pun tidak boleh bersetuju tentang maksud iklan yang diklik, model itu disediakan dalam gesaan Beberapa contoh, jadi sebenarnya ini adalah beberapa sampel dan bukannya klasifikasi sifar sampel. Berikut ialah petua daripada LLaMA.

Dalam ujian, hanya LLaMA-33B berjaya mengikut format yang diperlukan dan memberikan jawapan, dan ramalannya adalah munasabah ChatGPT dilakukan kedua, dan boleh memberikan a perbandingan Jawapan yang munasabah, tetapi selalunya tidak dalam format yang ditetapkan, dan model 7B dan 13B yang lebih kecil tidak sesuai dengan tugas itu.

Model LLaMA telah dibocorkan, dan versi Meta ChatGPT terpaksa menjadi sumber terbuka! GitHub memperoleh 8k bintang dan sejumlah besar ulasan dikeluarkan

Penjanaan kod

Walaupun LLM Cemerlang dalam bidang kemanusiaan tetapi tidak dalam subjek STEM, jadi bagaimana prestasi LLaMA dalam bidang ini?

Dalam gesaan, berikan bentuk jadual carian dan tujuan yang anda ingin capai, dan minta model menyediakan pernyataan pertanyaan SQL.

ChatGPT berprestasi lebih baik dalam tugasan ini, tetapi hasil yang diberikan oleh model bahasa umumnya tidak boleh dipercayai.

Model LLaMA telah dibocorkan, dan versi Meta ChatGPT terpaksa menjadi sumber terbuka! GitHub memperoleh 8k bintang dan sejumlah besar ulasan dikeluarkan

Dalam pelbagai ujian berbanding ChatGPT, LLaMA tidak menunjukkan prestasi seperti yang diharapkan Sama seperti berjaya. Sudah tentu, jika jurang itu hanya disebabkan oleh RLHF (pembelajaran pengukuhan dengan maklum balas manusia), maka masa depan model kecil mungkin lebih cerah.

Atas ialah kandungan terperinci Model LLaMA telah dibocorkan, dan versi Meta ChatGPT terpaksa menjadi 'sumber terbuka'! GitHub memperoleh 8k bintang dan sejumlah besar ulasan dikeluarkan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:51cto.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan
Tentang kita Penafian Sitemap
Laman web PHP Cina:Latihan PHP dalam talian kebajikan awam,Bantu pelajar PHP berkembang dengan cepat!