Rumah > Peranti teknologi > AI > Bagaimana untuk menjalankan model Qwen2.5 secara tempatan dalam masa 3 minit?

Bagaimana untuk menjalankan model Qwen2.5 secara tempatan dalam masa 3 minit?

Joseph Gordon-Levitt
Lepaskan: 2025-03-07 09:48:11
asal
622 orang telah melayarinya

qwen2.5-max: Model bahasa yang besar, seperti manusia seperti manusia

Landskap AI berdengung dengan model yang kuat, kos efektif seperti DeepSeek, Mistral Small 3, dan Qwen2.5 Max. Qwen2.5-Max, khususnya, membuat gelombang sebagai model campuran-of-experts (MOE) yang kuat, bahkan mengatasi DeepSeek V3 dalam beberapa tanda aras. Senibina lanjutan dan dataset latihan besar -besaran (sehingga 18 trilion token) menetapkan piawaian baru untuk prestasi. Artikel ini meneroka seni bina Qwen2.5-Max, kelebihan daya saingnya, dan potensi untuk menyaingi Deepseek V3. Kami juga akan membimbing anda melalui model QWEN2.5 yang menjalankan tempatan.

Ciri -ciri Model Kunci Qwen2.5:

  • Sokongan berbilang bahasa: menyokong lebih daripada 29 bahasa.
  • Konteks Extended: Mengendalikan konteks panjang sehingga token 128k.
  • Keupayaan yang dipertingkatkan: Penambahbaikan yang signifikan dalam pengekodan, matematik, pengajaran berikut, dan pemahaman data berstruktur.

Jadual Kandungan:

  • Ciri -ciri Model Kunci Qwen2.5
  • menggunakan qwen2.5 dengan ollama
  • qwen2.5: 7b Inference
  • qwen2.5-coder: 3b Inference
  • Kesimpulan

menjalankan qwen2.5 secara tempatan dengan ollama:

Pertama, pasang Ollama: pautan muat turun ollama

Linux/Ubuntu Pengguna: curl -fsSL https://ollama.com/install.sh | sh

Model ollama ollama yang ada:

How to Run Qwen2.5 Models Locally in 3 Minutes?

Kami akan menggunakan model parameter 7B (lebih kurang 4.7 GB). Model yang lebih kecil disediakan untuk pengguna dengan sumber terhad.

qwen2.5: 7b kesimpulan:

ollama pull qwen2.5:7b
Salin selepas log masuk
Perintah

akan memuat turun model. Anda akan melihat output yang serupa dengan ini: pull

<code>pulling manifest 
pulling 2bada8a74506... 100% ▕████████████████▏ 4.7 GB                         
... (rest of the output) ...
success</code>
Salin selepas log masuk
kemudian jalankan model:

ollama run qwen2.5:7b
Salin selepas log masuk

How to Run Qwen2.5 Models Locally in 3 Minutes? contoh pertanyaan:

prompt:

Tentukan pangkalan data vektor dalam 30 perkataan.

<code>Vector databases efficiently store and query numerical arrays (vectors), often using approximations for fast similarity searches in large datasets.</code>
Salin selepas log masuk
prompt:

Senaraikan beberapa contoh.

<code>Popular vector databases include Pinecone, Weaviate, Milvus, ChromaDB, and Amazon Aurora Vectorstore.</code>
Salin selepas log masuk
(tekan ctrl d untuk keluar)

Nota: Model yang dikendalikan oleh tempatan tidak mempunyai akses masa nyata dan keupayaan carian web. Contohnya:

prompt:

apa tarikh hari ini?

<code>Today's date is unavailable.  My knowledge is not updated in real-time.</code>
Salin selepas log masuk
qwen2.5-coder: 3b kesimpulan:

How to Run Qwen2.5 Models Locally in 3 Minutes? ikuti proses yang sama, menggantikan

untuk

dalam

dan

perintah. qwen2.5-coder:3b qwen2.5:7b pull run Contoh pengekodan Prompt:

prompt: menyediakan kod python untuk urutan Fibonacci.

(output: kod python untuk urutan Fibonacci akan dipaparkan di sini)

prompt: Buat kalkulator mudah menggunakan fungsi python.

Kesimpulan:

Panduan ini menunjukkan cara menjalankan model QWEN2.5 secara tempatan menggunakan Ollama, menonjolkan kekuatan QWEN.5-MAX: panjang konteks 128K, sokongan berbilang bahasa, dan keupayaan yang dipertingkatkan. Walaupun pelaksanaan tempatan meningkatkan keselamatan, ia mengorbankan akses maklumat masa nyata. Qwen2.5 menawarkan keseimbangan antara kecekapan, keselamatan, dan prestasi, menjadikannya alternatif yang kuat untuk DeepSeek V3 untuk pelbagai aplikasi AI. Maklumat lanjut mengenai mengakses Qwen2.5-Max melalui Google Colab boleh didapati dalam sumber yang berasingan.

Atas ialah kandungan terperinci Bagaimana untuk menjalankan model Qwen2.5 secara tempatan dalam masa 3 minit?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Artikel terbaru oleh pengarang
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan