Kehebatan AI China berkembang pesat, dengan model seperti DeepSeek dan Qwen mencabar pemimpin global. Deepseek, saingan chatgpt, telah mendapat perhatian yang ketara, sementara chatbot serba boleh Qwen, mengintegrasikan penglihatan, penalaran, dan pengekodan, membuat langkah yang mengagumkan. QWQ 32B, model penalaran terbaru Qwen, adalah pesaing bersaiz sederhana, bersaing dengan model peringkat teratas seperti DeepSeek-R1 dan O1-Mini, menunjukkan kemajuan luar biasa China di AI.
QWQ-32B, model parameter 32 bilion dari keluarga Qwen, memanfaatkan pembelajaran tetulang (RL) untuk meningkatkan keupayaan penalaran dan penyelesaiannya. Prestasinya menyaingi model yang lebih besar seperti DeepSeek-R1, menyesuaikan penalarannya berdasarkan maklum balas dan menggunakan alat yang berkesan. Berat terbuka dan boleh didapati di bawah lesen Apache 2.0 pada muka dan model memeluk, ia juga boleh diakses melalui QWEN Chat, mempamerkan potensi RL untuk meningkatkan prestasi AI dengan ketara.
Kemahiran matematik, pengekodan, dan kemahiran matematik QWQ-32B telah diuji dengan ketat di pelbagai tanda aras. Perbandingan berikut menyerlahkan prestasinya terhadap model terkemuka seperti DeepSeek-R1-Distilled-Qwen-32B, DeepSeek-R1-Distilled-Llama-70b, O1-Mini, dan DeepSeek-R1 yang asal.
Skor LiveBench, menilai pemikiran merentasi pelbagai tugas, kedudukan QWQ-32B antara R1 dan O3-mini, namun pada kos yang jauh lebih rendah (kira-kira 1/10). Anggaran harga, berdasarkan data API atau OpenRouter, letakkan qwq-preview pada $ 0.18 setiap token output pada deepinfra, menekankan keberkesanan kosnya.
QWQ-32B Alibaba mencapai skor 59% pada berlian GPQA (penalaran saintifik) dan 86% pada AIME 2024 (matematik). Walaupun cemerlang dalam matematik, penalaran saintifiknya tertinggal di belakang pesaing utama.
Pada masa ini trend #1 di Huggingface.
Ketahui lebih lanjut melalui kursus QWQ 32B percuma kami!
Mengakses QWQ-32B menawarkan beberapa pilihan bergantung kepada keperluan dan kepakaran teknikal anda.
Prasyarat:
Pemasangan dan Penggunaan: (Coretan kod yang disediakan dalam teks asal dikekalkan di sini)
<code>pip install transformers torch</code>
<code>from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "Qwen/QwQ-32B" model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto") tokenizer = AutoTokenizer.from_pretrained(model_name)</code>
<code>prompt = "How many r's are in the word 'strawberry'?" messages = [{"role": "user", "content": prompt}] text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) model_inputs = tokenizer([text], return_tensors="pt").to(model.device) generated_ids = model.generate(**model_inputs, max_new_tokens=512) response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0] print(response)</code>
ollama pull qwq:32b
ollama run qwq:32b
(Contoh dengan video tertanam dikekalkan dari teks asal)
Prompt: Buat laman web statik dengan lilin menerangi dengan percikan api di sekitar api
Prompt: Membangunkan permainan duduk di mana anda boleh melepaskan peluru berpandu ke semua arah. Pada mulanya, kelajuan musuh sangat perlahan, tetapi selepas mengalahkan tiga musuh, kelajuan secara beransur -ansur meningkat. melaksanakan dalam p5.js
Prompt: Tulis program python yang menunjukkan bola melantun di dalam segi enam berputar. Bola harus dipengaruhi oleh graviti dan geseran, dan ia mesti melantun dinding berputar secara realistik .
QWQ-32B mewakili kemajuan besar dalam penalaran AI, yang menawarkan prestasi yang setanding dengan model teratas pada sebahagian kecil daripada kos. Skor LiveBench yang kuat dan keberkesanan kosnya ($ 0.18 setiap token output) menjadikannya penyelesaian yang praktikal dan boleh diakses untuk pelbagai aplikasi. Kemajuan ini menandakan potensi AI berprestasi tinggi untuk menjadi lebih murah dan boleh diakses secara meluas, memupuk inovasi yang lebih besar.
Ketahui lebih lanjut mengenai menggunakan QWQ 32B dalam projek anda dengan kursus percuma kami!
Atas ialah kandungan terperinci QWQ -32B QWEN: Model Kecil Dengan Potensi Besar - Analytics Vidhya. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!