首頁 > 科技週邊 > 人工智慧 > Qwen的QWQ -32B:具有巨大潛力的小型模型 - 分析Vidhya

Qwen的QWQ -32B:具有巨大潛力的小型模型 - 分析Vidhya

William Shakespeare
發布: 2025-03-21 09:38:10
原創
246 人瀏覽過

中國的人工智能實力正在迅速擴大,諸如DeepSeek和Qwen等挑戰全球領導者之類的模式。 DeepSeek是一位Chatgpt競爭對手,引起了人們的重大關注,而Qwen的Vertatile Chatbot集成了視覺,推理和編碼,但正在取得令人印象深刻的進步。 QWQ 32B是QWEN的最新推理模型,是中型競爭者,與DeepSeek-R1和O1-Mini等頂級模型競爭,展示了中國在AI中的顯著進步。

目錄

  • 了解Qwen的QWQ 32B
  • 性能基準
  • 訪問QWQ 32B:
    • 最簡單的方法:QWEN聊天
    • 通過擁抱的臉部部署
    • 用Ollama簡化本地設置
  • QWQ 32B行動
  • 結論

了解Qwen的QWQ 32B

QWQ-32B是QWEN家族的32億個參數模型,利用強化學習(RL)來增強其推理和解決問題的能力。它的性能與大型模型(例如DeepSeek-R1)相媲美,根據反饋和有效利用工具來調整其推理。在擁抱面和ModelsCope的Apache 2.0許可下開放量,也可以通過QWEN聊天訪問,展示RL的潛力可顯著提高AI性能。

性能基準

QWQ-32B的數學推理,編碼和解決問題的技能已在各種基準中進行了嚴格的測試。以下比較強調了它的性能與諸如DeepSeek-R1-Distild-distille-Qwen-32b,DeepSeek-R1-Distild-distild-lllama-70B,O1-Mini和Original DeepSeek-R1之類的領先模型。

Qwen的QWQ -32B:具有巨大潛力的小型模型 - 分析Vidhya

LiveBench得分,評估跨不同任務的推理,R1和O3 Mini之間的QWQ-32B位置,但成本明顯降低(約1/10)。基於API或OpenRouter數據的定價估計值將QWQ-Preview的每個輸出令牌$ 0.18在Deepinfra上放置,強調了其成本效益。

Qwen的QWQ -32B:具有巨大潛力的小型模型 - 分析Vidhya

阿里巴巴的QWQ-32B在GPQA鑽石(科學推理)上得分為59%,AIME 2024(數學)的得分為86%。在數學上表現出色的同時,其科學推理落後於頂級競爭對手。

Qwen的QWQ -32B:具有巨大潛力的小型模型 - 分析Vidhya

當前在Huggingface上趨向#1。

Qwen的QWQ -32B:具有巨大潛力的小型模型 - 分析Vidhya

通過免費的QWQ 32B課程了解更多信息!

訪問QWQ 32B

訪問QWQ-32B提供了幾種選擇,具體取決於您的需求和技術專長。

通過QWEN聊天(最簡單的方法)

  1. 訪問https://www.php.cn/link/e3524b4d458e3625befde27f60809f34
  2. 創建一個帳戶(如果需要)。
  3. 從模型選擇菜單中選擇“ QWQ-32B”。
  4. 開始與模型互動。

通過擁抱的臉部部署

先決條件:

  • 高端GPU(最低24GB VRAM;未量化FP16的80GB;量化版本約為20GB)。
  • Python 3.8,git,pip或conda。
  • 擁抱臉部變壓器庫(4.37.0)。

安裝和用法:(原始文本中提供的代碼片段在此處保留)

 <code>pip install transformers torch</code>
登入後複製
 <code>from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "Qwen/QwQ-32B" model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto") tokenizer = AutoTokenizer.from_pretrained(model_name)</code>
登入後複製
 <code>prompt = "How many r's are in the word 'strawberry'?" messages = [{"role": "user", "content": prompt}] text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) model_inputs = tokenizer([text], return_tensors="pt").to(model.device) generated_ids = model.generate(**model_inputs, max_new_tokens=512) response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0] print(response)</code>
登入後複製

用Ollama簡化本地設置

  1. 從Ollama.com下載並安裝Ollama。
  2. 拉模型: ollama pull qwq:32b
  3. 運行模型: ollama run qwq:32b

QWQ 32B行動

(嵌入式視頻的示例是從原始文本中保留的)

提示:創建一個帶有照明蠟燭的靜態網頁,火焰周圍有火花

提示:開發一個坐著的遊戲,您可以在其中各個方向發射導彈。起初,敵人的速度非常慢,但是在擊敗三個敵人之後,速度逐漸提高。在p5.js中實施

提示:編寫一個Python程序,該程序顯示在旋轉六角形內彈跳。球應受重力和摩擦的影響,並且必須實際上從旋轉的牆壁上彈起

結論

QWQ-32B代表了AI推理方面的重大進步,提供的性能與成本的一小部分相當。其強勁的LiveBench分數和成本效益(每個輸出令牌0.18美元)使其成為各種應用程序的實用且易於使用的解決方案。這一進步表明,高性能AI變得更加實惠和廣泛訪問的潛力,從而促進了更大的創新。

了解有關在您的免費課程中在項目中使用QWQ 32B的更多信息!

以上是Qwen的QWQ -32B:具有巨大潛力的小型模型 - 分析Vidhya的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板