Chinas KI -Fähigkeiten erweitern sich rasch, und Modelle wie Deepseek und Qwen fordern die globalen Führungskräfte heraus. Deepseek, ein Chatgpt -Rivale, hat erhebliche Aufmerksamkeit erregt, während Qwens vielseitiger Chatbot, der Vision, Argumentation und Codierung integriert, beeindruckende Fortschritte macht. QWQ 32B, Qwens neuestes Argumentationsmodell, ist ein mittelgroßer Anwärter, der mit Top-Tier-Modellen wie Deepseek-R1 und O1-Mini konkurriert und Chinas bemerkenswerte Fortschritte in der KI zeigt.
QWQ-32B, ein 32-Milliarden-Parametermodell aus der QWEN-Familie, nutzt das Verstärkungslernen (RL), um ihre Argumentations- und Problemlösungsfähigkeiten zu verbessern. Seine Leistung konkurriert mit der von größeren Modellen wie Deepseek-R1, der deren Argumentation auf der Grundlage von Rückmeldungen und der effektiven Nutzung von Tools anpasst. Open-Weight und verfügbar unter der Apache 2.0-Lizenz für Umarmung und Models und ModelsCope ist es auch über Qwen Chat zugänglich und zeigt das Potenzial von RL, die KI-Leistung erheblich zu steigern.
QWQ-32Bs mathematisches Denken, Codieren und Problemlösungsfähigkeiten wurden streng über verschiedene Benchmarks getestet. Die folgenden Vergleiche unterstreichen seine Leistung mit führenden Modellen wie Deekseek-R1-Distilled-Qwen-32B, Deekseek-R1-Destilled-Llama-70b, O1-Mini und dem ursprünglichen Deekseek-R1.
LiveBench-Scores, die die Begründung über verschiedene Aufgaben hinweg bewerten, positionieren QWQ-32B zwischen R1 und O3-Mini, doch zu erheblich niedrigeren Kosten (ungefähr 1/10). Preisschätzungen, basierend auf API- oder OpenRouter-Daten, platzieren QWQ-Präview auf 0,18 USD pro Ausgangsmarke auf Deepinfra, wobei deren Kosteneffizienz betont wird.
Alibabas QWQ-32B erzielt einen 59% igen Punktzahl für GPQA Diamond (wissenschaftliches Denken) und 86% für Aime 2024 (Mathematik). Während seiner Exzarkte in Mathematik bleibt die wissenschaftliche Argumentation hinter den Top -Konkurrenten zurück.
Derzeit Trending Nr. 1 auf dem Umarmungen.
Erfahren Sie mehr über unseren kostenlosen QWQ 32B -Kurs!
Der Zugriff auf QWQ-32B bietet je nach Bedarf und technischem Fachwissen mehrere Optionen.
Voraussetzungen:
Installation und Verwendung: (Code -Snippets, die im Originaltext bereitgestellt werden, werden hier aufbewahrt.)
<code>pip install transformers torch</code>
<code>from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "Qwen/QwQ-32B" model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto") tokenizer = AutoTokenizer.from_pretrained(model_name)</code>
<code>prompt = "How many r's are in the word 'strawberry'?" messages = [{"role": "user", "content": prompt}] text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) model_inputs = tokenizer([text], return_tensors="pt").to(model.device) generated_ids = model.generate(**model_inputs, max_new_tokens=512) response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0] print(response)</code>
ollama pull qwq:32b
ollama run qwq:32b
(Beispiele mit eingebetteten Videos werden vom Originaltext aufbewahrt)
Eingabeaufforderung: Erstellen Sie eine statische Webseite mit aufschlussreicher Kerze mit Funken um die Flamme
Eingabeaufforderung: Entwickeln Sie ein sitzendes Spiel, bei dem Sie Raketen in alle Richtungen abfeuern können. Zunächst ist die Geschwindigkeit des Feindes sehr langsam, aber nachdem er drei Feinde besiegt hat, nimmt die Geschwindigkeit allmählich zu. implementieren in p5.js
Eingabeaufforderung: Schreiben Sie ein Python -Programm, das einen Ball in einem Spinnhexagon zeigt. Die Kugel sollte von Schwerkraft und Reibung beeinflusst werden und muss realistisch von den rotierenden Wänden abprallen .
QWQ-32B stellt einen erheblichen Fortschritt im KI-Argumentation dar und bietet eine Leistung, die mit Topmodellen zu einem Bruchteil der Kosten vergleichbar ist. Die starken LiveBench-Ergebnisse und die Kostenwirksamkeit (0,18 USD pro Output-Token) machen es zu einer praktischen und zugänglichen Lösung für verschiedene Anwendungen. Dieser Fortschritt bedeutet das Potenzial, dass Hochleistungs-KI erschwinglicher und allgemein zugänglicher wird und größere Innovationen fördert.
Erfahren Sie mehr über die Verwendung von QWQ 32B in Ihren Projekten mit unserem kostenlosen Kurs!
Das obige ist der detaillierte Inhalt vonQWQ -32B: Kleines Modell mit großem Potenzial - Analytics Vidhya. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!