Rumah > Peranti teknologi > AI > teks badan

0 ambang untuk kegunaan komersial percuma! Model besar Mencius 3-13B adalah sumber terbuka secara rasmi dan dilatih dengan trilion data token

PHPz
Lepaskan: 2024-04-01 17:01:22
ke hadapan
667 orang telah melayarinya

Teknologi Lanzhou diumumkan secara rasmi: Model besar Mencius 3-13B adalah sumber terbuka secara rasmi!

Model ringan yang besar dan menjimatkan kos ini terbuka sepenuhnya kepada penyelidikan akademik dan menyokong penggunaan komersial percuma.

Dalam pelbagai penilaian penanda aras seperti MMLU, GSM8K, dan HUMAN-EVAL, Mencius 3-13B telah menunjukkan prestasi yang baik.

Terutama dalam bidang model besar ringan dengan parameter dalam lingkungan 20B, kemahiran bahasa Cina dan Inggeris amat cemerlang. Kemahiran matematik dan pengaturcaraan juga berada di barisan hadapan.

0 ambang untuk kegunaan komersial percuma! Model besar Mencius 3-13B adalah sumber terbuka secara rasmi dan dilatih dengan trilion data token
△Keputusan di atas adalah berdasarkan 5 pukulan.

Menurut laporan, model besar Mencius 3-13B adalah berdasarkan seni bina Llama, dan saiz set data setinggi 3T Token.

Korpus dipilih daripada halaman web, ensiklopedia, media sosial, media, berita dan set data sumber terbuka berkualiti tinggi. Dengan terus melatih korpus berbilang bahasa mengenai trilion token, model ini mempunyai keupayaan bahasa Cina yang luar biasa dan mengambil kira keupayaan berbilang bahasa.

Model besar Mencius 3-13B adalah sumber terbuka

Anda boleh menggunakan model besar Mencius 3-13B dalam dua langkah sahaja.

Mula-mula konfigurasikan persekitaran.

pip install -r requirements.txt
Salin selepas log masuk

Kemudian mulakan dengan cepat.

import torchfrom transformers import AutoModelForCausalLM, AutoTokenizertokenizer = AutoTokenizer.from_pretrained("Langboat/Mengzi3-13B-Base", use_fast=False, trust_remote_code=True)model = AutoModelForCausalLM.from_pretrained("Langboat/Mengzi3-13B-Base", device_map="auto", trust_remote_code=True)inputs = tokenizer('指令:回答以下问题。输入:介绍一下孟子。输出:', return_tensors='pt')if torch.cuda.is_available():inputs = inputs.to('cuda')pred = model.generate(**inputs, max_new_tokens=512, repetition_penalty=1.01, eos_token_id=tokenizer.eos_token_id)print(tokenizer.decode(pred[0], skip_special_tokens=True))
Salin selepas log masuk

Selain itu, mereka menyediakan kod sampel yang boleh digunakan untuk inferens interaktif pusingan tunggal dengan model asas.

cd examplespython examples/base_streaming_gen.py --model model_path --tokenizer tokenizer_path
Salin selepas log masuk

Jika anda ingin memperhalusi model, mereka juga menyediakan fail dan kod yang berkaitan.

0 ambang untuk kegunaan komersial percuma! Model besar Mencius 3-13B adalah sumber terbuka secara rasmi dan dilatih dengan trilion data token

Malah, banyak butiran model besar Mencius 3-13B telah didedahkan seawal 18 Mac di persidangan pelancaran produk dan teknologi model besar Lanzhou.

Ketika itu, mereka menyatakan latihan model besar Mencius 3-13B telah selesai.

Mengenai sebab memilih versi 13B, Zhou Ming menjelaskan:

Pertama sekali, Lanzhou jelas memfokuskan pada penyediaan senario ToB, ditambah dengan ToC.

Amalan mendapati bahawa parameter model besar yang paling kerap digunakan dalam senario ToB adalah kebanyakannya 7B, 13B, 40B, 100B dan kepekatan keseluruhan adalah antara 10B-100B.

Kedua, dalam julat ini, dari perspektif ROI (pulangan pelaburan), ia bukan sahaja memenuhi keperluan tempat kejadian, tetapi juga paling kos efektif.

Oleh itu, untuk sekian lama, matlamat Lanzhou adalah untuk mencipta model besar industri berkualiti tinggi dalam skala parameter 10B-100B.

Sebagai salah satu pasukan keusahawanan model besar yang terawal di China, Lanzhou mengeluarkan Mencius GPT V1 (MChat) pada Mac tahun lepas.

Pada bulan Januari tahun ini, Mencius Big Model GPT V2 (termasuk Mencius Big Model-Standard, Mencius Big Model-Lightweight, Mencius Big Model-Finance, Mencius Big Model-Encoding) telah dibuka kepada orang ramai.

Okay kawan-kawan yang berminat boleh klik link di bawah untuk merasainya.

Pautan GitHub: https://github.com/Langboat/Mengzi3
HuggingFace: https://huggingface.co/Langboat/Mengzi3-13B-BaseModel

//www.modelscope.cn/models/langboat/Mengzi3-13B-BaseWisemodel:

https://wisemodel.cn/models/Langboat/Mengzi3-13B-Base
🎜🎜

Atas ialah kandungan terperinci 0 ambang untuk kegunaan komersial percuma! Model besar Mencius 3-13B adalah sumber terbuka secara rasmi dan dilatih dengan trilion data token. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:51cto.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan