首页 > 科技周边 > 人工智能 > Qwen的QWQ -32B:具有巨大潜力的小型模型 - 分析Vidhya

Qwen的QWQ -32B:具有巨大潜力的小型模型 - 分析Vidhya

William Shakespeare
发布: 2025-03-21 09:38:10
原创
234 人浏览过

中国的人工智能实力正在迅速扩大,诸如DeepSeek和Qwen等挑战全球领导者之类的模式。 DeepSeek是一位Chatgpt竞争对手,引起了人们的重大关注,而Qwen的Vertatile Chatbot集成了视觉,推理和编码,但正在取得令人印象深刻的进步。 QWQ 32B是QWEN的最新推理模型,是中型竞争者,与DeepSeek-R1和O1-Mini等顶级模型竞争,展示了中国在AI中的显着进步。

目录

  • 了解Qwen的QWQ 32B
  • 性能基准
  • 访问QWQ 32B:
    • 最简单的方法:QWEN聊天
    • 通过拥抱的脸部部署
    • 用Ollama简化本地设置
  • QWQ 32B行动
  • 结论

了解Qwen的QWQ 32B

QWQ-32B是QWEN家族的32亿个参数模型,利用强化学习(RL)来增强其推理和解决问题的能力。它的性能与大型模型(例如DeepSeek-R1)相媲美,根据反馈和有效利用工具来调整其推理。在拥抱面和ModelsCope的Apache 2.0许可下开放量,也可以通过QWEN聊天访问,展示RL的潜力可显着提高AI性能。

性能基准

QWQ-32B的数学推理,编码和解决问题的技能已在各种基准中进行了严格的测试。以下比较强调了它的性能与诸如DeepSeek-R1-Distild-distille-Qwen-32b,DeepSeek-R1-Distild-distild-lllama-70B,O1-Mini和Original DeepSeek-R1之类的领先模型。

Qwen的QWQ -32B:具有巨大潜力的小型模型 - 分析Vidhya

LiveBench得分,评估跨不同任务的推理,R1和O3 Mini之间的QWQ-32B位置,但成本明显降低(约1/10)。基于API或OpenRouter数据的定价估计值将QWQ-Preview的每个输出令牌$ 0.18在Deepinfra上放置,强调了其成本效益。

Qwen的QWQ -32B:具有巨大潜力的小型模型 - 分析Vidhya

阿里巴巴的QWQ-32B在GPQA钻石(科学推理)上得分为59%,AIME 2024(数学)的得分为86%。在数学上表现出色的同时,其科学推理落后于顶级竞争对手。

Qwen的QWQ -32B:具有巨大潜力的小型模型 - 分析Vidhya

当前在Huggingface上趋向#1。

Qwen的QWQ -32B:具有巨大潜力的小型模型 - 分析Vidhya

通过免费的QWQ 32B课程了解更多信息!

访问QWQ 32B

访问QWQ-32B提供了几种选择,具体取决于您的需求和技术专长。

通过QWEN聊天(最简单的方法)

  1. 访问https://www.php.cn/link/e3524b4d458e3625befde27f60809f34
  2. 创建一个帐户(如果需要)。
  3. 从模型选择菜单中选择“ QWQ-32B”。
  4. 开始与模型互动。

通过拥抱的脸部部署

先决条件:

  • 高端GPU(最低24GB VRAM;未量化FP16的80GB;量化版本约为20GB)。
  • Python 3.8,git,pip或conda。
  • 拥抱脸部变压器库(4.37.0)。

安装和用法:(原始文本中提供的代码片段在此处保留)

 <code>pip install transformers torch</code>
登录后复制
 <code>from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "Qwen/QwQ-32B" model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto") tokenizer = AutoTokenizer.from_pretrained(model_name)</code>
登录后复制
 <code>prompt = "How many r's are in the word 'strawberry'?" messages = [{"role": "user", "content": prompt}] text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) model_inputs = tokenizer([text], return_tensors="pt").to(model.device) generated_ids = model.generate(**model_inputs, max_new_tokens=512) response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0] print(response)</code>
登录后复制

用Ollama简化本地设置

  1. 从Ollama.com下载并安装Ollama。
  2. 拉模型: ollama pull qwq:32b
  3. 运行模型: ollama run qwq:32b

QWQ 32B行动

(嵌入式视频的示例是从原始文本中保留的)

提示:创建一个带有照明蜡烛的静态网页,火焰周围有火花

提示:开发一个坐着的游戏,您可以在其中各个方向发射导弹。起初,敌人的速度非常慢,但是在击败三个敌人之后,速度逐渐提高。在p5.js中实施

提示:编写一个Python程序,该程序显示在旋转六角形内弹跳。球应受重力和摩擦的影响,并且必须实际上从旋转的墙壁上弹起

结论

QWQ-32B代表了AI推理方面的重大进步,提供的性能与成本的一小部分相当。其强劲的LiveBench分数和成本效益(每个输出令牌0.18美元)使其成为各种应用程序的实用且易于使用的解决方案。这一进步表明,高性能AI变得更加实惠和广泛访问的潜力,从而促进了更大的创新。

了解有关在您的免费课程中在项目中使用QWQ 32B的更多信息!

以上是Qwen的QWQ -32B:具有巨大潜力的小型模型 - 分析Vidhya的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板