ホームページ > テクノロジー周辺機器 > AI > QWENのQWQ -32B:大きな可能性を備えた小さなモデル - 分析vidhya

QWENのQWQ -32B:大きな可能性を備えた小さなモデル - 分析vidhya

William Shakespeare
リリース: 2025-03-21 09:38:10
オリジナル
245 人が閲覧しました

中国のAI能力は急速に拡大しており、DeepseekやQwenなどのモデルがグローバルリーダーに挑戦しています。 ChatGptのライバルであるDeepseekは大きな注目を集めていますが、Qwenの多目的なチャットボット、ビジョン、推論、コーディングの統合が印象的な進歩を遂げています。 QWENの最新の推論モデルであるQWQ 32Bは、DeepSeek-R1やO1-Miniなどのトップティアモデルと競合する中規模の候補であり、AIでの中国の顕著な進歩を示しています。

目次

  • QwenのQWQ 32bの理解
  • パフォーマンスベンチマーク
  • QWQ 32Bへのアクセス:
    • 最も簡単な方法:Qwenチャット
    • 抱きしめる顔を介したローカル展開
    • Ollamaとの現地セットアップを簡素化しました
  • QWQ 32Bアクション
  • 結論

QwenのQWQ 32bの理解

QWENファミリーの320億パラメーターモデルであるQWQ-32Bは、推論と問題解決機能を強化するために、強化学習(RL)を活用しています。そのパフォーマンスは、DeepSeek-R1などの大規模なモデルのパフォーマンスに匹敵し、フィードバックに基づいて推論を適応させ、ツールを効果的に利用しています。 Open-Weightで、Face and Modelscopeを抱きしめるApache 2.0ライセンスの下で利用可能で、Qwenチャットを通じてアクセスでき、AIパフォーマンスを大幅に向上させるRLの可能性を示しています。

パフォーマンスベンチマーク

QWQ-32Bの数学的推論、コーディング、および問題解決スキルは、さまざまなベンチマークで厳密にテストされています。以下の比較は、DeepSeek-R1-Distill-Qwen-32B、DeepSeek-R1-Distill-Lalama-70B、O1-Mini、および元のDeepSeek-R1などの主要なモデルに対するパフォーマンスを強調しています。

QWENのQWQ -32B:大きな可能性を備えた小さなモデル - 分析vidhya

ライブベンチスコア、多様なタスク全体の推論の評価、R1とO3-MINIの間にQWQ-32Bを位置付けますが、大幅に低いコスト(約1/10)です。 APIまたはOpenRouterデータに基づく価格設定の見積もりは、QWQ-PreviewをDeepInfraの出力トークンあたり0.18ドルにし、費用対効果を強調します。

QWENのQWQ -32B:大きな可能性を備えた小さなモデル - 分析vidhya

AlibabaのQWQ-32Bは、GPQAダイヤモンド(科学的推論)で59%のスコア、AIME 2024(数学)で86%を達成しています。数学で優れている間、その科学的推論はトップの競合他社に遅れをとっています。

QWENのQWQ -32B:大きな可能性を備えた小さなモデル - 分析vidhya

現在、Huggingfaceでトレンド#1。

QWENのQWQ -32B:大きな可能性を備えた小さなモデル - 分析vidhya

無料のQWQ 32Bコースをご覧ください!

QWQ 32Bへのアクセス

QWQ-32Bにアクセスすると、ニーズと技術的な専門知識に応じていくつかのオプションが提供されます。

Qwenチャット経由(最も簡単なアプローチ)

  1. https://www.php.cn/link/e3524b4d458e3625befde27f60809f34にアクセスしてください。
  2. アカウントを作成します(必要に応じて)。
  3. モデル選択メニューから「QWQ-32B」を選択します。
  4. モデルとのやり取りを開始します。

抱きしめる顔を介したローカル展開

前提条件:

  • ハイエンドGPU(24GB VRAM最小;定量化されていないFP16の場合は80GB、量子化されたバージョンでは約20GB)。
  • Python 3.8、Git、PipまたはConda。
  • フェイストランスライブラリ(4.37.0)を抱き締める。

インストールと使用法:(元のテキストに記載されているコードスニペットがここに保持されます)

 <code>pip install transformers torch</code>
ログイン後にコピー
 <code>from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "Qwen/QwQ-32B" model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto") tokenizer = AutoTokenizer.from_pretrained(model_name)</code>
ログイン後にコピー
 <code>prompt = "How many r's are in the word 'strawberry'?" messages = [{"role": "user", "content": prompt}] text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) model_inputs = tokenizer([text], return_tensors="pt").to(model.device) generated_ids = model.generate(**model_inputs, max_new_tokens=512) response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0] print(response)</code>
ログイン後にコピー

Ollamaとの現地セットアップを簡素化しました

  1. Ollama.comからOllamaをダウンロードしてインストールします。
  2. モデルを引く: ollama pull qwq:32b
  3. モデルの実行: ollama run qwq:32b

QWQ 32Bアクション

(埋め込まれたビデオを含む例は、元のテキストから保持されています)

プロンプト:炎の周りに火花を込めたろうそくを照らした静的ウェブページを作成する

プロンプト:あらゆる方向にミサイルを発射できる着席ゲームを開発します。最初は、敵の速度は非常に遅いですが、3人の敵を倒した後、速度は徐々に増加します。 p5.j​​sに実装します

プロンプト:回転する六角形の中で跳ね返るボールを示すPythonプログラムを書いてください。ボールは重力と摩擦の影響を受ける必要があり、回転する壁から現実的に跳ね返る必要があります

結論

QWQ-32Bは、AI推論における実質的な進歩を表しており、一部のコストでトップモデルに匹敵するパフォーマンスを提供します。その強力なライブベンチスコアと費用対効果(出力トークンあたり0.18ドル)により、多様なアプリケーションにとって実用的でアクセス可能なソリューションになります。この進歩は、高性能AIがより手頃で広くアクセスしやすくなり、より大きな革新を促進する可能性を意味します。

無料のコースでプロジェクトでQWQ 32Bの使用について詳しく学んでください!

以上がQWENのQWQ -32B:大きな可能性を備えた小さなモデル - 分析vidhyaの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
関連するチュートリアル
人気のおすすめ
最新のコース
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート