Rumah > Peranti teknologi > AI > QWQ -32B QWEN: Model Kecil Dengan Potensi Besar - Analytics Vidhya

QWQ -32B QWEN: Model Kecil Dengan Potensi Besar - Analytics Vidhya

William Shakespeare
Lepaskan: 2025-03-21 09:38:10
asal
245 orang telah melayarinya

Kehebatan AI China berkembang pesat, dengan model seperti DeepSeek dan Qwen mencabar pemimpin global. Deepseek, saingan chatgpt, telah mendapat perhatian yang ketara, sementara chatbot serba boleh Qwen, mengintegrasikan penglihatan, penalaran, dan pengekodan, membuat langkah yang mengagumkan. QWQ 32B, model penalaran terbaru Qwen, adalah pesaing bersaiz sederhana, bersaing dengan model peringkat teratas seperti DeepSeek-R1 dan O1-Mini, menunjukkan kemajuan luar biasa China di AI.

Jadual Kandungan

  • Memahami QWQ 32B Qwen
  • Penanda aras prestasi
  • Mengakses QWQ 32B:
    • Kaedah yang paling mudah: sembang qwen
    • Penggunaan tempatan melalui muka pelukan
    • Persediaan tempatan yang dipermudahkan dengan Ollama
  • Qwq 32b dalam tindakan
  • Kesimpulan

Memahami QWQ 32B Qwen

QWQ-32B, model parameter 32 bilion dari keluarga Qwen, memanfaatkan pembelajaran tetulang (RL) untuk meningkatkan keupayaan penalaran dan penyelesaiannya. Prestasinya menyaingi model yang lebih besar seperti DeepSeek-R1, menyesuaikan penalarannya berdasarkan maklum balas dan menggunakan alat yang berkesan. Berat terbuka dan boleh didapati di bawah lesen Apache 2.0 pada muka dan model memeluk, ia juga boleh diakses melalui QWEN Chat, mempamerkan potensi RL untuk meningkatkan prestasi AI dengan ketara.

Penanda aras prestasi

Kemahiran matematik, pengekodan, dan kemahiran matematik QWQ-32B telah diuji dengan ketat di pelbagai tanda aras. Perbandingan berikut menyerlahkan prestasinya terhadap model terkemuka seperti DeepSeek-R1-Distilled-Qwen-32B, DeepSeek-R1-Distilled-Llama-70b, O1-Mini, dan DeepSeek-R1 yang asal.

QWQ -32B QWEN: Model Kecil Dengan Potensi Besar - Analytics Vidhya

Skor LiveBench, menilai pemikiran merentasi pelbagai tugas, kedudukan QWQ-32B antara R1 dan O3-mini, namun pada kos yang jauh lebih rendah (kira-kira 1/10). Anggaran harga, berdasarkan data API atau OpenRouter, letakkan qwq-preview pada $ 0.18 setiap token output pada deepinfra, menekankan keberkesanan kosnya.

QWQ -32B QWEN: Model Kecil Dengan Potensi Besar - Analytics Vidhya

QWQ-32B Alibaba mencapai skor 59% pada berlian GPQA (penalaran saintifik) dan 86% pada AIME 2024 (matematik). Walaupun cemerlang dalam matematik, penalaran saintifiknya tertinggal di belakang pesaing utama.

QWQ -32B QWEN: Model Kecil Dengan Potensi Besar - Analytics Vidhya

Pada masa ini trend #1 di Huggingface.

QWQ -32B QWEN: Model Kecil Dengan Potensi Besar - Analytics Vidhya

Ketahui lebih lanjut melalui kursus QWQ 32B percuma kami!

Mengakses QWQ 32B

Mengakses QWQ-32B menawarkan beberapa pilihan bergantung kepada keperluan dan kepakaran teknikal anda.

Melalui sembang qwen (pendekatan paling mudah)

  1. Lawati https://www.php.cn/link/e3524b4d458e3625befde27f60809f34 .
  2. Buat akaun (jika diperlukan).
  3. Pilih "QWQ-32B" dari menu pemilihan model.
  4. Mula berinteraksi dengan model.

Penggunaan tempatan melalui muka pelukan

Prasyarat:

  • GPU high-end (minimum VRAM 24GB; 80GB untuk FP16 yang tidak beruntung; sekitar 20GB untuk versi kuantitatif).
  • Python 3.8, Git, Pip atau Conda.
  • Memeluk Perpustakaan Transformers Face (4.37.0).

Pemasangan dan Penggunaan: (Coretan kod yang disediakan dalam teks asal dikekalkan di sini)

 <code>pip install transformers torch</code>
Salin selepas log masuk
 <code>from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "Qwen/QwQ-32B" model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto") tokenizer = AutoTokenizer.from_pretrained(model_name)</code>
Salin selepas log masuk
 <code>prompt = "How many r's are in the word 'strawberry'?" messages = [{"role": "user", "content": prompt}] text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) model_inputs = tokenizer([text], return_tensors="pt").to(model.device) generated_ids = model.generate(**model_inputs, max_new_tokens=512) response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0] print(response)</code>
Salin selepas log masuk

Persediaan tempatan yang dipermudahkan dengan Ollama

  1. Muat turun dan pasang Ollama dari ollama.com.
  2. Tarik Model: ollama pull qwq:32b
  3. Jalankan Model: ollama run qwq:32b

Qwq 32b dalam tindakan

(Contoh dengan video tertanam dikekalkan dari teks asal)

Prompt: Buat laman web statik dengan lilin menerangi dengan percikan api di sekitar api

Prompt: Membangunkan permainan duduk di mana anda boleh melepaskan peluru berpandu ke semua arah. Pada mulanya, kelajuan musuh sangat perlahan, tetapi selepas mengalahkan tiga musuh, kelajuan secara beransur -ansur meningkat. melaksanakan dalam p5.js

Prompt: Tulis program python yang menunjukkan bola melantun di dalam segi enam berputar. Bola harus dipengaruhi oleh graviti dan geseran, dan ia mesti melantun dinding berputar secara realistik .

Kesimpulan

QWQ-32B mewakili kemajuan besar dalam penalaran AI, yang menawarkan prestasi yang setanding dengan model teratas pada sebahagian kecil daripada kos. Skor LiveBench yang kuat dan keberkesanan kosnya ($ 0.18 setiap token output) menjadikannya penyelesaian yang praktikal dan boleh diakses untuk pelbagai aplikasi. Kemajuan ini menandakan potensi AI berprestasi tinggi untuk menjadi lebih murah dan boleh diakses secara meluas, memupuk inovasi yang lebih besar.

Ketahui lebih lanjut mengenai menggunakan QWQ 32B dalam projek anda dengan kursus percuma kami!

Atas ialah kandungan terperinci QWQ -32B QWEN: Model Kecil Dengan Potensi Besar - Analytics Vidhya. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan