中国的人工智能实力正在迅速扩大,诸如DeepSeek和Qwen等挑战全球领导者之类的模式。 DeepSeek是一位Chatgpt竞争对手,引起了人们的重大关注,而Qwen的Vertatile Chatbot集成了视觉,推理和编码,但正在取得令人印象深刻的进步。 QWQ 32B是QWEN的最新推理模型,是中型竞争者,与DeepSeek-R1和O1-Mini等顶级模型竞争,展示了中国在AI中的显着进步。
QWQ-32B是QWEN家族的32亿个参数模型,利用强化学习(RL)来增强其推理和解决问题的能力。它的性能与大型模型(例如DeepSeek-R1)相媲美,根据反馈和有效利用工具来调整其推理。在拥抱面和ModelsCope的Apache 2.0许可下开放量,也可以通过QWEN聊天访问,展示RL的潜力可显着提高AI性能。
QWQ-32B的数学推理,编码和解决问题的技能已在各种基准中进行了严格的测试。以下比较强调了它的性能与诸如DeepSeek-R1-Distild-distille-Qwen-32b,DeepSeek-R1-Distild-distild-lllama-70B,O1-Mini和Original DeepSeek-R1之类的领先模型。
LiveBench得分,评估跨不同任务的推理,R1和O3 Mini之间的QWQ-32B位置,但成本明显降低(约1/10)。基于API或OpenRouter数据的定价估计值将QWQ-Preview的每个输出令牌$ 0.18在Deepinfra上放置,强调了其成本效益。
阿里巴巴的QWQ-32B在GPQA钻石(科学推理)上得分为59%,AIME 2024(数学)的得分为86%。在数学上表现出色的同时,其科学推理落后于顶级竞争对手。
当前在Huggingface上趋向#1。
通过免费的QWQ 32B课程了解更多信息!
访问QWQ-32B提供了几种选择,具体取决于您的需求和技术专长。
先决条件:
安装和用法:(原始文本中提供的代码片段在此处保留)
<code>pip install transformers torch</code>
<code>from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "Qwen/QwQ-32B" model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto") tokenizer = AutoTokenizer.from_pretrained(model_name)</code>
<code>prompt = "How many r's are in the word 'strawberry'?" messages = [{"role": "user", "content": prompt}] text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) model_inputs = tokenizer([text], return_tensors="pt").to(model.device) generated_ids = model.generate(**model_inputs, max_new_tokens=512) response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0] print(response)</code>
ollama pull qwq:32b
ollama run qwq:32b
(嵌入式视频的示例是从原始文本中保留的)
提示:创建一个带有照明蜡烛的静态网页,火焰周围有火花
提示:开发一个坐着的游戏,您可以在其中各个方向发射导弹。起初,敌人的速度非常慢,但是在击败三个敌人之后,速度逐渐提高。在p5.js中实施
提示:编写一个Python程序,该程序显示在旋转六角形内弹跳。球应受重力和摩擦的影响,并且必须实际上从旋转的墙壁上弹起。
QWQ-32B代表了AI推理方面的重大进步,提供的性能与成本的一小部分相当。其强劲的LiveBench分数和成本效益(每个输出令牌0.18美元)使其成为各种应用程序的实用且易于使用的解决方案。这一进步表明,高性能AI变得更加实惠和广泛访问的潜力,从而促进了更大的创新。
了解有关在您的免费课程中在项目中使用QWQ 32B的更多信息!
以上是Qwen的QWQ -32B:具有巨大潜力的小型模型 - 分析Vidhya的详细内容。更多信息请关注PHP中文网其他相关文章!