Rumah > Peranti teknologi > AI > teks badan

Memperkenalkan model MoE sumber terbuka domestik yang besar, prestasinya setanding dengan Llama 2-7B, manakala jumlah pengiraan dikurangkan sebanyak 60%

PHPz
Lepaskan: 2024-01-15 21:36:14
ke hadapan
942 orang telah melayarinya

Model sumber terbuka MoE akhirnya mengalu-alukan pemain domestik pertamanya!

Prestasinya tidak kalah dengan model Llama 2-7B yang padat, tetapi jumlah pengiraannya hanya 40%.

Model ini boleh dipanggil pahlawan 19 muka, terutamanya menghancurkan Llama dari segi kebolehan matematik dan pengekodan.

首个国产开源MoE大模型来了!性能媲美Llama 2-7B,计算量降低60%

Ia adalah model pakar 16 bilion parameter sumber terbuka terbaru DeepSeek MoE oleh pasukan Deep Search.

Selain prestasi cemerlangnya, fokus utama DeepSeek MoE adalah untuk menjimatkan kuasa pengkomputeran.

Dalam rajah parameter pengaktifan prestasi ini, ia "menyusun" dan menduduki kawasan kosong yang besar di penjuru kiri sebelah atas.

首个国产开源MoE大模型来了!性能媲美Llama 2-7B,计算量降低60%

Hanya sehari selepas dikeluarkan, tweet pasukan DeepSeek di X menerima sejumlah besar tweet semula dan perhatian.

首个国产开源MoE大模型来了!性能媲美Llama 2-7B,计算量降低60%

Maxime Labonne, seorang jurutera pembelajaran mesin di JP Morgan, juga berkata selepas menguji bahawa versi sembang DeepSeek MoE berprestasi lebih baik sedikit daripada "model kecil" Microsoft Phi-2.

首个国产开源MoE大模型来了!性能媲美Llama 2-7B,计算量降低60%

Pada masa yang sama, DeepSeek MoE turut menerima 300+ bintang di GitHub dan muncul di halaman utama kedudukan model penjanaan teks Hugging Face.

首个国产开源MoE大模型来了!性能媲美Llama 2-7B,计算量降低60%

Jadi, apakah prestasi khusus DeepSeek MoE?

Jumlah pengiraan dikurangkan sebanyak 60%

Versi semasa DeepSeek MoE mempunyai 16 bilion parameter, dan bilangan sebenar parameter yang diaktifkan ialah kira-kira 2.8 bilion.

Berbanding dengan model padat 7B kami sendiri, prestasi kedua-duanya pada 19 set data berbeza, tetapi prestasi keseluruhannya agak hampir.

Berbanding dengan Llama 2-7B, yang juga model padat, DeepSeek MoE juga menunjukkan kelebihan yang jelas dalam matematik, kod, dll.

Tetapi beban pengiraan kedua-dua model padat melebihi 180TFLOP setiap token 4k, manakala DeepSeek MoE hanya mempunyai 74.4TFLOP, iaitu hanya 40% daripada kedua-duanya.

首个国产开源MoE大模型来了!性能媲美Llama 2-7B,计算量降低60%

Ujian prestasi yang dijalankan pada 2 bilion parameter menunjukkan DeepSeek MoE juga boleh mencapai keputusan yang setara atau lebih baik daripada GShard 2.8B, yang juga model MoE dengan 1.5 kali ganda bilangan parameter dan menggunakan kurang pengiraan.

首个国产开源MoE大模型来了!性能媲美Llama 2-7B,计算量降低60%

Selain itu, pasukan Deep Seek juga memperhalusi versi Sembang DeepSeek MoE berdasarkan SFT, dan prestasinya juga hampir dengan versi padatnya sendiri dan Llama 2-7B.

首个国产开源MoE大模型来了!性能媲美Llama 2-7B,计算量降低60%

Selain itu, pasukan DeepSeek juga mendedahkan bahawa terdapat juga versi 145B model DeepSeek MoE yang sedang dibangunkan.

Ujian awal berfasa menunjukkan bahawa 145B DeepSeek MoE mempunyai pendahuluan yang besar berbanding GShard 137B, dan boleh mencapai prestasi yang setara dengan versi padat model DeepSeek 67B dengan 28.5% daripada jumlah pengiraan.

Selepas penyelidikan dan pembangunan selesai, pasukan juga akan membuka sumber versi 145B.

首个国产开源MoE大模型来了!性能媲美Llama 2-7B,计算量降低60%

Di sebalik prestasi model-model ini adalah seni bina MoE baharu DeepSeek yang dibangunkan sendiri.

Seni bina baharu KPM yang dibangunkan sendiri

Pertama sekali, berbanding dengan seni bina MoE tradisional, DeepSeek mempunyai bahagian pakar yang lebih terperinci.

Apabila jumlah parameter ditetapkan, model tradisional boleh mengklasifikasikan N pakar, manakala DeepSeek boleh mengklasifikasikan pakar 2N.

Pada masa yang sama, bilangan pakar yang dipilih setiap kali tugasan dilakukan adalah dua kali ganda berbanding model tradisional, jadi bilangan keseluruhan parameter yang digunakan kekal sama, tetapi tahap kebebasan memilih meningkat.

Strategi segmentasi ini membolehkan gabungan pakar pengaktifan yang lebih fleksibel dan adaptif, sekali gus meningkatkan ketepatan model pada tugas yang berbeza dan kepentingan pemerolehan pengetahuan.

首个国产开源MoE大模型来了!性能媲美Llama 2-7B,计算量降低60%

Selain daripada perbezaan dalam bahagian pakar, DeepSeek juga secara inovatif memperkenalkan tetapan "pakar kongsi".

Pakar yang dikongsi ini mengaktifkan token untuk semua input dan tidak terjejas oleh modul penghalaan Tujuannya adalah untuk menangkap dan menyepadukan pengetahuan umum yang diperlukan dalam konteks yang berbeza.

Dengan memampatkan pengetahuan yang dikongsi ini kepada pakar yang dikongsi, lebihan parameter dalam kalangan pakar lain dapat dikurangkan, dengan itu meningkatkan kecekapan parameter model.

Tetapan pakar yang dikongsi membantu pakar lain lebih fokus pada bidang pengetahuan unik mereka, dengan itu meningkatkan tahap keseluruhan pengkhususan pakar.

首个国产开源MoE大模型来了!性能媲美Llama 2-7B,计算量降低60%

Hasil percubaan ablasi menunjukkan bahawa kedua-dua penyelesaian telah memainkan peranan penting dalam "pengurangan kos dan peningkatan kecekapan" DeepSeek MoE.

首个国产开源MoE大模型来了!性能媲美Llama 2-7B,计算量降低60%

Alamat kertas: https://arxiv.org/abs/2401.06066.

Pautan rujukan: https://mp.weixin.qq.com/s/T9-EGxYuHcGQgXArLXGbgg.

Atas ialah kandungan terperinci Memperkenalkan model MoE sumber terbuka domestik yang besar, prestasinya setanding dengan Llama 2-7B, manakala jumlah pengiraan dikurangkan sebanyak 60%. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:51cto.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan
Tentang kita Penafian Sitemap
Laman web PHP Cina:Latihan PHP dalam talian kebajikan awam,Bantu pelajar PHP berkembang dengan cepat!