Heim > Technologie-Peripheriegeräte > KI > QWQ -32B: Kleines Modell mit großem Potenzial - Analytics Vidhya

QWQ -32B: Kleines Modell mit großem Potenzial - Analytics Vidhya

William Shakespeare
Freigeben: 2025-03-21 09:38:10
Original
245 Leute haben es durchsucht

Chinas KI -Fähigkeiten erweitern sich rasch, und Modelle wie Deepseek und Qwen fordern die globalen Führungskräfte heraus. Deepseek, ein Chatgpt -Rivale, hat erhebliche Aufmerksamkeit erregt, während Qwens vielseitiger Chatbot, der Vision, Argumentation und Codierung integriert, beeindruckende Fortschritte macht. QWQ 32B, Qwens neuestes Argumentationsmodell, ist ein mittelgroßer Anwärter, der mit Top-Tier-Modellen wie Deepseek-R1 und O1-Mini konkurriert und Chinas bemerkenswerte Fortschritte in der KI zeigt.

Inhaltsverzeichnis

  • Das QWQ 32B von Qwen verstehen
  • Leistungsbenchmarks
  • Zugriff auf QWQ 32B:
    • Die einfachste Methode: Qwen Chat
    • Lokale Einsatz über das Gesicht des Gesichts
    • Vereinfachtes lokales Setup mit Ollama
  • QWQ 32B in Aktion
  • Abschluss

Das QWQ 32B von Qwen verstehen

QWQ-32B, ein 32-Milliarden-Parametermodell aus der QWEN-Familie, nutzt das Verstärkungslernen (RL), um ihre Argumentations- und Problemlösungsfähigkeiten zu verbessern. Seine Leistung konkurriert mit der von größeren Modellen wie Deepseek-R1, der deren Argumentation auf der Grundlage von Rückmeldungen und der effektiven Nutzung von Tools anpasst. Open-Weight und verfügbar unter der Apache 2.0-Lizenz für Umarmung und Models und ModelsCope ist es auch über Qwen Chat zugänglich und zeigt das Potenzial von RL, die KI-Leistung erheblich zu steigern.

Leistungsbenchmarks

QWQ-32Bs mathematisches Denken, Codieren und Problemlösungsfähigkeiten wurden streng über verschiedene Benchmarks getestet. Die folgenden Vergleiche unterstreichen seine Leistung mit führenden Modellen wie Deekseek-R1-Distilled-Qwen-32B, Deekseek-R1-Destilled-Llama-70b, O1-Mini und dem ursprünglichen Deekseek-R1.

QWQ -32B: Kleines Modell mit großem Potenzial - Analytics Vidhya

LiveBench-Scores, die die Begründung über verschiedene Aufgaben hinweg bewerten, positionieren QWQ-32B zwischen R1 und O3-Mini, doch zu erheblich niedrigeren Kosten (ungefähr 1/10). Preisschätzungen, basierend auf API- oder OpenRouter-Daten, platzieren QWQ-Präview auf 0,18 USD pro Ausgangsmarke auf Deepinfra, wobei deren Kosteneffizienz betont wird.

QWQ -32B: Kleines Modell mit großem Potenzial - Analytics Vidhya

Alibabas QWQ-32B erzielt einen 59% igen Punktzahl für GPQA Diamond (wissenschaftliches Denken) und 86% für Aime 2024 (Mathematik). Während seiner Exzarkte in Mathematik bleibt die wissenschaftliche Argumentation hinter den Top -Konkurrenten zurück.

QWQ -32B: Kleines Modell mit großem Potenzial - Analytics Vidhya

Derzeit Trending Nr. 1 auf dem Umarmungen.

QWQ -32B: Kleines Modell mit großem Potenzial - Analytics Vidhya

Erfahren Sie mehr über unseren kostenlosen QWQ 32B -Kurs!

Zugriff auf QWQ 32B

Der Zugriff auf QWQ-32B bietet je nach Bedarf und technischem Fachwissen mehrere Optionen.

Über Qwen Chat (einfachster Ansatz)

  1. Besuchen Sie https://www.php.cn/link/e3524b4d458e3625befde27f60809f34 .
  2. Erstellen Sie ein Konto (falls erforderlich).
  3. Wählen Sie "QWQ-32B" im Menü Modellauswahl.
  4. Beginnen Sie mit dem Modell zu interagieren.

Lokale Einsatz über das Gesicht des Gesichts

Voraussetzungen:

  • High-End-GPU (24 GB VRAM-Minimum; 80 GB für nicht quantisierte FP16; etwa 20 GB für quantisierte Versionen).
  • Python 3.8, Git, Pip oder Conda.
  • Umarmung der Gesichtstransformatorenbibliothek (4.37.0).

Installation und Verwendung: (Code -Snippets, die im Originaltext bereitgestellt werden, werden hier aufbewahrt.)

 <code>pip install transformers torch</code>
Nach dem Login kopieren
 <code>from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "Qwen/QwQ-32B" model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto") tokenizer = AutoTokenizer.from_pretrained(model_name)</code>
Nach dem Login kopieren
 <code>prompt = "How many r's are in the word 'strawberry'?" messages = [{"role": "user", "content": prompt}] text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) model_inputs = tokenizer([text], return_tensors="pt").to(model.device) generated_ids = model.generate(**model_inputs, max_new_tokens=512) response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0] print(response)</code>
Nach dem Login kopieren

Vereinfachtes lokales Setup mit Ollama

  1. Laden Sie Ollama von Ollama.com herunter und installieren Sie sie.
  2. Ziehen Sie das Modell: ollama pull qwq:32b
  3. Führen Sie das Modell aus: ollama run qwq:32b

QWQ 32B in Aktion

(Beispiele mit eingebetteten Videos werden vom Originaltext aufbewahrt)

Eingabeaufforderung: Erstellen Sie eine statische Webseite mit aufschlussreicher Kerze mit Funken um die Flamme

Eingabeaufforderung: Entwickeln Sie ein sitzendes Spiel, bei dem Sie Raketen in alle Richtungen abfeuern können. Zunächst ist die Geschwindigkeit des Feindes sehr langsam, aber nachdem er drei Feinde besiegt hat, nimmt die Geschwindigkeit allmählich zu. implementieren in p5.js

Eingabeaufforderung: Schreiben Sie ein Python -Programm, das einen Ball in einem Spinnhexagon zeigt. Die Kugel sollte von Schwerkraft und Reibung beeinflusst werden und muss realistisch von den rotierenden Wänden abprallen .

Abschluss

QWQ-32B stellt einen erheblichen Fortschritt im KI-Argumentation dar und bietet eine Leistung, die mit Topmodellen zu einem Bruchteil der Kosten vergleichbar ist. Die starken LiveBench-Ergebnisse und die Kostenwirksamkeit (0,18 USD pro Output-Token) machen es zu einer praktischen und zugänglichen Lösung für verschiedene Anwendungen. Dieser Fortschritt bedeutet das Potenzial, dass Hochleistungs-KI erschwinglicher und allgemein zugänglicher wird und größere Innovationen fördert.

Erfahren Sie mehr über die Verwendung von QWQ 32B in Ihren Projekten mit unserem kostenlosen Kurs!

Das obige ist der detaillierte Inhalt vonQWQ -32B: Kleines Modell mit großem Potenzial - Analytics Vidhya. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage