Rumah > Peranti teknologi > AI > Model MoE sumber terbuka paling berkuasa di dunia ada di sini, dengan keupayaan bahasa Cina setanding dengan GPT-4, dan harganya hanya hampir satu peratus daripada GPT-4-Turbo

Model MoE sumber terbuka paling berkuasa di dunia ada di sini, dengan keupayaan bahasa Cina setanding dengan GPT-4, dan harganya hanya hampir satu peratus daripada GPT-4-Turbo

PHPz
Lepaskan: 2024-05-07 16:13:20
ke hadapan
948 orang telah melayarinya

Bayangkan model kecerdasan buatan yang bukan sahaja mempunyai keupayaan untuk mengatasi pengkomputeran tradisional, tetapi juga mencapai prestasi yang lebih cekap pada kos yang lebih rendah. Ini bukan fiksyen sains, DeepSeek-V2[1], model MoE sumber terbuka paling berkuasa di dunia ada di sini.

全球最强开源 MoE 模型来了,中文能力比肩 GPT-4,价格仅为 GPT-4-Turbo 的近百分之一

DeepSeek-V2 ialah gabungan model bahasa pakar (MoE) yang berkuasa dengan ciri-ciri latihan ekonomi dan inferens yang cekap. Ia terdiri daripada 236B parameter, 21B daripadanya digunakan untuk mengaktifkan setiap teg. Berbanding DeepSeek 67B, DeepSeek-V2 mempunyai prestasi yang lebih kukuh, sambil menjimatkan 42.5% kos latihan, mengurangkan cache KV sebanyak 93.3% dan meningkatkan daya pemprosesan penjanaan maksimum kepada 5.76 kali.

DeepSeek ialah sebuah syarikat yang meneroka sifat kecerdasan buatan am (AGI) dan komited untuk menyepadukan penyelidikan, kejuruteraan dan perniagaan.

Keupayaan komprehensif DeepSeek-V2

Dalam senarai arus perdana model besar semasa, DeepSeek-V2 berprestasi baik:

  • Terkuat di kalangan keupayaan komprehensif Cina (AlignBench dengan) model sumber terbuka Gbo-4-Tur model sumber tertutup seperti Wenxin 4.0 berada dalam eselon yang sama dalam penilaian
  • Keupayaan komprehensif Bahasa Inggeris (MT-Bench) berada dalam eselon pertama: Keupayaan komprehensif Inggeris (MT-Bench) berada dalam eselon yang sama dengan model sumber terbuka terkuat Llama3-70b, melebihi model sumber terbuka MOE yang paling kuat mixtral 8x22b
  • ranking di antara bahagian atas pengetahuan, matematik, penalaran, pengaturcaraan dan senarai lain yang menyokong struktur model 128k. potensi AI sentiasa diterokai Menggali, kami tidak boleh tidak bertanya: Apakah kunci untuk mempromosikan kemajuan pintar?
  • DeepSeek-V2 memberikan jawapan - gabungan sempurna seni bina inovatif dan keberkesanan kos
  • .
"DeepSeek-V2 ialah versi yang dipertingkatkan. Dengan jumlah parameter 236B dan pengaktifan 21B, akhirnya ia mencapai keupayaan model Padat 70B~110B. Pada masa yang sama, penggunaan memori hanya 1/5~1/ 100 model tahap yang sama Pada mesin H800 8 kad, ia boleh memproses input lebih daripada 100,000 token sesaat dan mengeluarkan lebih daripada 50,000 token sesaat Ini bukan sahaja lonjakan dalam teknologi, tetapi juga revolusi kawalan kos. "

全球最强开源 MoE 模型来了,中文能力比肩 GPT-4,价格仅为 GPT-4-Turbo 的近百分之一Dengan perkembangan pesat teknologi AI. Hari ini, kemunculan DeepSeek-V2 bukan sahaja mewakili kejayaan teknologi, tetapi juga menandakan popularisasi aplikasi pintar. Ia merendahkan ambang untuk AI dan membolehkan lebih banyak syarikat dan individu menikmati faedah perkhidmatan pintar yang cekap. Pada masa yang sama, ia juga menandakan pempopularan aplikasi pintar. Ia merendahkan ambang untuk AI dan membolehkan lebih banyak syarikat dan individu menikmati faedah perkhidmatan pintar yang cekap.

Keupayaan Cina VS Harga

Dari segi keupayaan Cina, DeepSeek-V2 mendahului dunia dalam ranking AlignBench sambil memberikan harga API yang sangat kompetitif.

Model dan kertas kedua-duanya adalah sumber terbuka

DeepSeek-V2 bukan sekadar model, ia adalah kunci kepada dunia yang lebih bijak. Ia membuka lembaran baharu dalam aplikasi AI dengan kos yang lebih rendah dan prestasi yang lebih tinggi. Sumber terbuka DeepSeek-V2 adalah bukti terbaik kepercayaan ini. Ia akan memberi inspirasi kepada lebih ramai orang semangat inovatif dan bersama-sama mempromosikan masa depan kecerdasan manusia.

Berat model: https://huggingface.co/deepseek-ai

全球最强开源 MoE 模型来了,中文能力比肩 GPT-4,价格仅为 GPT-4-Turbo 的近百分之一Alamat sumber terbuka: https://github.com/deepseek-ai/DeepSeek-V2全球最强开源 MoE 模型来了,中文能力比肩 GPT-4,价格仅为 GPT-4-Turbo 的近百分之一

Hari ini apabila AI terus berkembang, apa yang perlu dilakukan anda fikir DeepSeek -Bagaimana V2 akan mengubah dunia kita? Mari tunggu dan lihat. Jika anda berminat, anda boleh layari

chat.deepseek.com

    untuk merasai sendiri perubahan teknologi yang dibawa oleh DeepSeek-V2. .

Atas ialah kandungan terperinci Model MoE sumber terbuka paling berkuasa di dunia ada di sini, dengan keupayaan bahasa Cina setanding dengan GPT-4, dan harganya hanya hampir satu peratus daripada GPT-4-Turbo. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:51cto.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan