Projek LLaMA mengandungi satu set model bahasa asas, bersaiz antara 7 bilion hingga 65 bilion parameter. Model ini dilatih menggunakan berjuta-juta token, dan ia dilatih sepenuhnya pada set data yang tersedia untuk umum. Hasilnya, LLaMA-13B mengatasi GPT-3 (175B), manakala LLaMA-65B menunjukkan prestasi yang sama dengan model terbaik seperti Chinchilla-70B dan PaLM-540B.
Imej daripada LLaMA
Alpaca Stanford mendakwa ia boleh bersaing dengan ChatGPT dan sesiapa sahaja boleh menyalinnya dengan harga kurang daripada $600. Alpaca 7B diperhalusi daripada model LLaMA 7B pada demonstrasi ikut arahan 52K.
Kandungan latihan|Gambar dari Stanford University CRFM
Vicuna diperhalusi berdasarkan model LLaMA pada perbualan kongsi pengguna yang dikumpulkan daripada ShareGPT. Model Vicuna-13B telah mencapai lebih daripada 90% kualiti OpenAI ChatGPT dan Google Bard. Ia juga mengatasi model LLaMA dan Stanford Alpaca 90% pada masa itu. Kos untuk melatih Vicuna adalah lebih kurang $300.
Imej daripada Vicuna
OpenChatKit: Alternatif sumber terbuka kepada ChatGPT, kit alat lengkap untuk mencipta chatbots. Ia menyediakan model bahasa yang besar untuk melatih pelarasan arahan pengguna sendiri, model yang diperhalusi, sistem dapatkan semula berskala untuk mengemas kini respons bot dan arahan untuk menapis semakan bot bagi soalan.
Gambar dari BERSAMA
Seperti yang anda lihat, model GPT-NeoXT-Chat-Base-20B berprestasi lebih baik daripada mod Asas GPT-NoeX.
GPT4ALL ialah projek dipacu komuniti dan dilatih pada korpus besar interaksi tambahan, termasuk kod, cerita, perihalan dan perbualan berbilang pusingan. Pasukan itu menyediakan set data, berat model, proses pengurusan data dan kod latihan untuk memudahkan sumber terbuka. Selain itu, mereka mengeluarkan versi model 4-bit terkuantisasi yang boleh dijalankan pada komputer riba. Anda juga boleh menggunakan klien Python untuk menjalankan inferens model.
Imej daripada GPT4ALL
Sumber:
Raven RWKV 7B ialah robot sembang sumber terbuka yang digerakkan oleh model bahasa RWKV untuk menjana Keputusan adalah serupa dengan ChatGPT. Model ini menggunakan RNN, yang boleh memadankan pengubah dari segi kualiti dan kebolehskalaan, sambil lebih pantas dan menjimatkan VRAM. Raven diperhalusi pada Stanford Alpaca, kod-alpaca dan lebih banyak set data.
Imej daripada Raven RWKV 7B
OPT: Model bahasa Transformer Pra-terlatih Terbuka tidak sekuat ChatGPT, tetapi ia menunjukkan keupayaan yang sangat baik dalam pembelajaran sifar dan beberapa pukulan dan analisis bias stereotaip. Ia juga boleh disepadukan dengan Alpa, Colossal-AI, CTranslate2 dan FasterTransformer untuk hasil yang lebih baik. NOTA: Sebab ia membuat senarai adalah popularitinya, kerana ia mempunyai 624,710 muat turun sebulan dalam kategori penjanaan teks.
Imej daripada (arxiv.org)
Flan-T5-XXL in The Model T5 diperhalusi pada set data yang dinyatakan dalam bentuk arahan. Penalaan halus arahan telah meningkatkan prestasi pelbagai kelas model seperti PaLM, T5 dan U-PaLM. Model Flan-T5-XXL diperhalusi pada lebih daripada 1000 tugasan tambahan, meliputi lebih banyak bahasa.
Imej daripada Flan-T5-XXL
Terdapat banyak model besar sumber terbuka untuk dipilih daripada 8 model besar yang lebih popular.
Atas ialah kandungan terperinci Memperkenalkan lapan penyelesaian model besar sumber terbuka dan percuma kerana ChatGPT dan Bard terlalu mahal.. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!