Bayangkan model kecerdasan buatan yang bukan sahaja mempunyai keupayaan untuk mengatasi pengkomputeran tradisional, tetapi juga mencapai prestasi yang lebih cekap pada kos yang lebih rendah. Ini bukan fiksyen sains, DeepSeek-V2[1], model MoE sumber terbuka paling berkuasa di dunia ada di sini.
DeepSeek-V2 ialah gabungan model bahasa pakar (MoE) yang berkuasa dengan ciri-ciri latihan ekonomi dan inferens yang cekap. Ia terdiri daripada 236B parameter, 21B daripadanya digunakan untuk mengaktifkan setiap teg. Berbanding DeepSeek 67B, DeepSeek-V2 mempunyai prestasi yang lebih kukuh, sambil menjimatkan 42.5% kos latihan, mengurangkan cache KV sebanyak 93.3% dan meningkatkan daya pemprosesan penjanaan maksimum kepada 5.76 kali.
DeepSeek ialah sebuah syarikat yang meneroka sifat kecerdasan buatan am (AGI) dan komited untuk menyepadukan penyelidikan, kejuruteraan dan perniagaan.
Dalam senarai arus perdana model besar semasa, DeepSeek-V2 berprestasi baik:
Dengan perkembangan pesat teknologi AI. Hari ini, kemunculan DeepSeek-V2 bukan sahaja mewakili kejayaan teknologi, tetapi juga menandakan popularisasi aplikasi pintar. Ia merendahkan ambang untuk AI dan membolehkan lebih banyak syarikat dan individu menikmati faedah perkhidmatan pintar yang cekap. Pada masa yang sama, ia juga menandakan pempopularan aplikasi pintar. Ia merendahkan ambang untuk AI dan membolehkan lebih banyak syarikat dan individu menikmati faedah perkhidmatan pintar yang cekap.
Dari segi keupayaan Cina, DeepSeek-V2 mendahului dunia dalam ranking AlignBench sambil memberikan harga API yang sangat kompetitif.
Model dan kertas kedua-duanya adalah sumber terbukaAlamat sumber terbuka: https://github.com/deepseek-ai/DeepSeek-V2
Atas ialah kandungan terperinci Model MoE sumber terbuka paling berkuasa di dunia ada di sini, dengan keupayaan bahasa Cina setanding dengan GPT-4, dan harganya hanya hampir satu peratus daripada GPT-4-Turbo. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!