中國的人工智能實力正在迅速擴大,諸如DeepSeek和Qwen等挑戰全球領導者之類的模式。 DeepSeek是一位Chatgpt競爭對手,引起了人們的重大關注,而Qwen的Vertatile Chatbot集成了視覺,推理和編碼,但正在取得令人印象深刻的進步。 QWQ 32B是QWEN的最新推理模型,是中型競爭者,與DeepSeek-R1和O1-Mini等頂級模型競爭,展示了中國在AI中的顯著進步。
QWQ-32B是QWEN家族的32億個參數模型,利用強化學習(RL)來增強其推理和解決問題的能力。它的性能與大型模型(例如DeepSeek-R1)相媲美,根據反饋和有效利用工具來調整其推理。在擁抱面和ModelsCope的Apache 2.0許可下開放量,也可以通過QWEN聊天訪問,展示RL的潛力可顯著提高AI性能。
QWQ-32B的數學推理,編碼和解決問題的技能已在各種基準中進行了嚴格的測試。以下比較強調了它的性能與諸如DeepSeek-R1-Distild-distille-Qwen-32b,DeepSeek-R1-Distild-distild-lllama-70B,O1-Mini和Original DeepSeek-R1之類的領先模型。
LiveBench得分,評估跨不同任務的推理,R1和O3 Mini之間的QWQ-32B位置,但成本明顯降低(約1/10)。基於API或OpenRouter數據的定價估計值將QWQ-Preview的每個輸出令牌$ 0.18在Deepinfra上放置,強調了其成本效益。
阿里巴巴的QWQ-32B在GPQA鑽石(科學推理)上得分為59%,AIME 2024(數學)的得分為86%。在數學上表現出色的同時,其科學推理落後於頂級競爭對手。
當前在Huggingface上趨向#1。
通過免費的QWQ 32B課程了解更多信息!
訪問QWQ-32B提供了幾種選擇,具體取決於您的需求和技術專長。
先決條件:
安裝和用法:(原始文本中提供的代碼片段在此處保留)
<code>pip install transformers torch</code>
<code>from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "Qwen/QwQ-32B" model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto") tokenizer = AutoTokenizer.from_pretrained(model_name)</code>
<code>prompt = "How many r's are in the word 'strawberry'?" messages = [{"role": "user", "content": prompt}] text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) model_inputs = tokenizer([text], return_tensors="pt").to(model.device) generated_ids = model.generate(**model_inputs, max_new_tokens=512) response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0] print(response)</code>
ollama pull qwq:32b
ollama run qwq:32b
(嵌入式視頻的示例是從原始文本中保留的)
提示:創建一個帶有照明蠟燭的靜態網頁,火焰周圍有火花
提示:開發一個坐著的遊戲,您可以在其中各個方向發射導彈。起初,敵人的速度非常慢,但是在擊敗三個敵人之後,速度逐漸提高。在p5.js中實施
提示:編寫一個Python程序,該程序顯示在旋轉六角形內彈跳。球應受重力和摩擦的影響,並且必須實際上從旋轉的牆壁上彈起。
QWQ-32B代表了AI推理方面的重大進步,提供的性能與成本的一小部分相當。其強勁的LiveBench分數和成本效益(每個輸出令牌0.18美元)使其成為各種應用程序的實用且易於使用的解決方案。這一進步表明,高性能AI變得更加實惠和廣泛訪問的潛力,從而促進了更大的創新。
了解有關在您的免費課程中在項目中使用QWQ 32B的更多信息!
以上是Qwen的QWQ -32B:具有巨大潛力的小型模型 - 分析Vidhya的詳細內容。更多資訊請關注PHP中文網其他相關文章!