Heim > Technologie-Peripheriegeräte > KI > Deepseek V3: Das 685B-Modell schlägt GPT-4O und Lama 3.1

Deepseek V3: Das 685B-Modell schlägt GPT-4O und Lama 3.1

尊渡假赌尊渡假赌尊渡假赌
Freigeben: 2025-03-13 10:36:11
Original
754 Leute haben es durchsucht

Im vergangenen Jahr hat die Deepseek LLM mit seinen beeindruckenden 67 Milliarden Parametern Wellen gewonnen, die auf einem expansiven Datensatz von 2 Billionen Token im englischen und chinesischen Verständnis akribisch geschult wurden. Deepseek setzte neue Benchmarks für die Forschungszusammenarbeit ein und hat die KI-Community eingebunden, indem er sowohl ihre 7B/67B-Basis- als auch die Chat-Modelle aufgreift. Was ist, wenn ich Ihnen sage, dass es eine KI mit 685 Milliarden Parametern gibt und sie fast jedes Modell im KI -Raum übertrifft und Open Source ist? Klingt faszinierend, oder? Deepseek mit der Veröffentlichung von Deepseek V3 , das vom chinesischen Labor in Deepseek entwickelt wurde und die Grenzen der KI -Innovation noch weiter weiterentwickelt. Es handelt sich um ein starkes Sprachmodell (Moe-of-Experten) mit 671B Gesamtparametern, wobei 37B für jedes Token aktiviert ist.

Der beeindruckende Teil hier ist - es hat eine bemerkenswerte Kosteneffizienz mit seiner Ausbildung für nur 5,5 Millionen US -Dollar erreicht !!!

Deepseek V3 veröffentlicht unter einer lizenzenden Lizenz und ermöglicht Entwicklern, das Modell das Modell herunterzuladen, zu ändern und in verschiedene Anwendungen, einschließlich kommerzieller, zu integrieren. Die Vielseitigkeit umfasst eine Reihe von textbasierten Aufgaben wie das Codieren, Übersetzen und Generieren von Aufsätzen oder E-Mails aus beschreibenden Eingabeaufforderungen, was es zu einem leistungsstarken Tool für Entwickler und Unternehmen macht.

Außerdem übertrifft Deepseek V3 sowohl offen verfügbare als auch geschlossene KI -Modelle in mehreren wichtigen Domänen. In wettbewerbsfähigen Programmen auf Codeforces übertrifft Deepseek V3 Konkurrenten, darunter das Lama 3.1 405b von Meta , das Openai- GPT-4O und Alibabas Qwen 2.5 72b. Das Modell zeichnet sich auch in den Polyglot -Tests der Aider aus (2. Spot auf der Rangliste) und zeigt eine unübertroffene Fähigkeit, neuen Code zu generieren, der sich nahtlos in vorhandene Projekte integriert.

Der bisher größte Sprung nach vorne:

  • 60 Token/Sekunde (3x schneller als v2!)
  • Verbesserte Fähigkeiten
  • API -Kompatibilität intakt
  • Vollständige Open-Source-Modelle und Papiere

Inhaltsverzeichnis

  • Deepseek V3: Die massiven, offenen, 685 Milliarden Parameter
  • Was ist Deepseek v3?
    • 1. Advanced Architecture: Multi-Head Latent Aufmerksamkeit und Lastausgleich
    • 2. Vorausbildung in beispielloser Größe und Effizienz
    • 3.. Verbesserungen nach der Ausbildung: Wissensdestillation für die Meisterschaft der Argumentation
    • 4.. Nicht übereinstimmende Leistung und Stabilität
  • Bewertung von Deepseek V3 an verschiedenen Benchmarks
    • Benchmarks bewertet
    • Die Gesamtleistung von Deepseek-V3
  • AID -Polyglot -Benchmark -Ergebnisse
    • Schlüsselbeobachtungen
  • Die Chat -Website und API -Plattform von Deepseek V3
  • Wie laufe ich Deepseek V3?
    • Wie renne ich vor Ort?
    • Einrichtungsprozess mit Deepseek-Infer-Demo
    • LLM Deepseek Plugin
  • Deepseek V3 Experimente
    • Erstes Experiment
    • Zweites Experiment
    • Dritte Experiment
  • Abschluss

Deepseek V3: Die massiven, offenen, 685 Milliarden Parameter

Wissen Sie, dass Deepseek V3 mit 685 Milliarden Parametern (671B der Hauptmodellgewichte und 14b der MTP-Modulgewichte (Multi-Tooken Prediction)) erinnern kann, wie viele Biere Sie 2017 tuckern? Beeindruckend richtig? Nach den Schöpfer haben sie 5,5 Millionen US-Dollar ausgegeben, um Deepseek V3 zu trainieren, und wenn wir dies mit OpenAI-OpenAs CEO von Sam Altman, vergleichen, betrug die Trainingskosten für GPT-4 über 100 Millionen US-Dollar . Dieser strenge Kontrast zeigt Deepseek V3s bemerkenswertes Kostendienz und leistete die Aufwand, die einen Aufwand in der Lage ist.

Außerdem scheint Deepseek-V3 im Vergleich zu Lama 3 405B, das 30,8 m GPU-Stunden verwendet, ein stärkeres Modell mit nur 2,8 m GPU-Stunden (~ 11x weniger Berechnung) zu sein.

Deepseek (Chinesische AI ​​CO) lässt es heute einfach aussehen, wenn ein LLM an Grenzgrade auf einem Budget (2048 GPU für 2 Monate, 6 Millionen US-Dollar) ausgebildet wird.

Als Referenz soll diese Leistungsstufe Cluster von näher an 16K -GPUs erfordern, wobei diejenigen… https://t.co/ew7q2pq94b sind

- Andrej Karpathy (@karpathy) 26. Dezember 2024

Was ist Deepseek v3?

Deepseek V3 stellt einen monumentalen Sprung in der AI-Architektur und in der Trainingseffizienz dar und überschreitet die Grenzen großer Sprachmodelle. Dieses Open-Source-Modell liefert nicht nur eine modernste Leistung, sondern auch mit bemerkenswerter Effizienz und Skalierbarkeit. Folgendes macht Deepseek V3 zu einer herausragenden Innovation:

1. Advanced Architecture: Multi-Head Latent Aufmerksamkeit und Lastausgleich

Deepseek V3 baut auf bewährten Frameworks seines Vorgängers Deepseek V2 auf und übernimmt die latente Aufmerksamkeit (MLA) und die modernste Architektur Deepseekmoe. Diese Innovationen gewährleisten eine effiziente Inferenz und kostengünstige Schulung. Darüber hinaus wendet Deepseek V3 eine Hilfs-Verlust-freie Ladungsausgleichstrategie an, wodurch die typischen Leistungsabschüsse im Zusammenhang mit Lastausgleichsmechanismen beseitigt werden.

Das Modell integriert auch ein MTP-Ziel (Multi-Token Prediction) und verbessert seine Fähigkeit, mehrere Token gleichzeitig vorherzusagen. Dies steigert nicht nur die Leistung, sondern ermöglicht auch eine spekulative Decodierung und beschleunigte Inferenzgeschwindigkeiten erheblich.

2. Vorausbildung in beispielloser Größe und Effizienz

Deepseek V3 ist auf einem expansiven Datensatz von 14,8 Billionen vielfältiger, hochwertiger Token (um es besser zu verstehen, 1 Million Token sind rund 750.000 Wörter), eine Skala, die seine Vorgänger weit übertrifft. Diese Vorausbildung wird unter Verwendung eines revolutionären FP8 Mixed Precision Training Framework erreicht, der die erste erfolgreiche Anwendung von FP8 in einem ultra-large-skalierenden Modell markiert. Die Ergebnisse umfassen:

  • Nahe GPU-Auslastung : Durch das Co-Design von Algorithmen, Frameworks und Hardware überwindet Deepseek V3 Kommunikations Engpässe im Cross-Node-MOE-Training und erreicht eine nahezu vollständige Überlappung zur Berechnung der Berechnung.
  • Kosteneffektives Training : Mit nur 2,664 m H800 GPU-Stunden tritt Deepseek V3 als das stärkste Open-Source-Basismodell auf und setzt einen neuen Standard für die Effizienz. In den Stufen nach der Voraussetzung sind nur zusätzliche 0,1-m-GPU-Stunden erforderlich, was den Prozess bemerkenswert wirtschaftlich macht.

3.. Verbesserungen nach der Ausbildung: Wissensdestillation für die Meisterschaft der Argumentation

Deepseek V3 integriert eine innovative Kenntnisdestillationspipeline und nutzt Argumentationsfunktionen aus Modellen der Deepseek R1 -Serie. Diese Pipeline enthält erweiterte Überprüfungs- und Reflexionsmuster in das Modell und verbessert seine Argumentationsleistung dramatisch. Darüber hinaus werden der Ausgangsstil und die Ausgangslänge akribisch kontrolliert, um die Vielseitigkeit und Konsistenz über die Aufgaben zu gewährleisten.

4.. Nicht übereinstimmende Leistung und Stabilität

Umfangreiche Bewertungen bestätigen, dass Deepseek V3 alle Open-Source-Modelle und Rivalen übertrifft, die KI-Systeme mit geschlossenen Quellen führen. Trotz seiner massiven Skalierung und Komplexität war der Trainingsprozess außergewöhnlich stabil, ohne dass nicht einschichtbarer Verlustspitzen oder Rollbacks während des gesamten Zyklus.

Deepseek V3 ist ein Beweis für die Kraft der Innovation und Zusammenarbeit und bietet Entwicklern und Forschern ein leistungsstarkes, skalierbares und kostengünstiges Instrument, um eine breite Palette von Herausforderungen in AI und darüber hinaus zu bewältigen. Seine Open-Source-Natur sorgt für die Zugänglichkeit und ebnet den Weg für Durchbrüche in der Codierung, des Denkens und in multimodalen Anwendungen.

Hier sind die Links zum Herunterladen:

Modell Gesamtparameter Kontextlänge Herunterladen
Deepseek-V3-Base 671b 128K Umarmung
Deepseek-V3 671b 128K Umarmung

Bewertung von Deepseek V3 an verschiedenen Benchmarks

Deepseek V3: Das 685B-Modell schlägt GPT-4O und Lama 3.1

Benchmarks bewertet

  • MMLU-PRO (exakte Übereinstimmung-EM): misst sachliche und multitaskische QA-Genauigkeit.
  • GPQA-Diamond (Pass@1): Bewertet die präzise QA-Leistung und konzentriert sich auf schwierigere Aufgaben.
  • Math 500 (EM): Tests mathematisches Denken und Problemlösung.
  • Aime 2024 (Pass@1): Konzentriert sich auf fortgeschrittene Mathematikwettbewerbsprobleme.
  • CodeForces (Perzentil): Maßnahmen Coding -Wettbewerbsfähigkeiten.
  • SWE-Bench verifiziert (gelöst): Tests Genauigkeit der Software-Engineering-Aufgabenauflösung.

Schlüsselbeobachtungen

  1. Mmlu-pro
    • Deepseek-V3 führt mit einer Genauigkeit von 75,9% und übertrifft seine engsten Konkurrenten wie GPT-4-0513 (73,3%) und Claude-3,5 (72,6%) .
    • Dies zeigt seine Stärke in Multi-Task-Fakten-QA.
  2. Gpqa diamond
    • Wiederum erzielt Deepseek-V3 mit 59,1% die höchste und übertreffen andere wie Claude-3,5 ( 49,9% ) und Qwen2,5 ( 51,1% ).
    • Zeigt eine starke Präzision bei QA-Aufgaben mit hoher Differenzierung.
  3. Math 500
    • Dominiert mit einer Genauigkeit von 90,2% , weit vor Claude-3,5 ( 80,0% ) und GPT-4-0513 ( 78,3% ).
    • Zeigt eine außergewöhnliche mathematische Argumentation an.
  4. Aime 2024
    • Erzielte 39,2% , was viel höher ist als GPT-4-0513 ( 23,3% ) und Claude-3,5 ( 16,0% ).
    • Hebt seine Fähigkeit hervor, fortgeschrittene Mathematikprobleme auf Wettbewerbsebene zu lösen.
  5. Codeforces
    • Erreichte 51,6 Perzentile , übertrifft GPT-4-0513 ( 35,6 Perzentil ) und andere Modelle.
    • Spiegelt starke Coding -Wettbewerbsfunktionen wider.
  6. SWE-Bench verifiziert
    • Erzielte 42,0% , wettbewerbsfähig mit GPT-4-0513 ( 50,8% ) und besser als Claude-3,5 ( 38,8% ).
    • Zeigt Kompetenz in der Problemlösung für Software -Engineering.

Die Gesamtleistung von Deepseek-V3

  • Konsistenz und Dominanz: Deepseek-V3 übertrifft in allen wichtigen Benchmarks, mit Ausnahme von SWE-Bench verifiziert , wobei GPT-4 leicht ausgeht.
  • Stärken: Seine stärksten Bereiche sind mathematische Problemlösungen (Math 500) und Multi-Task-QA (MMLU-PRO) .
  • Edge gegenüber früheren Versionen: Insbesondere bei AIMe 2024 (39,2% gegenüber 23,3%) und Codeforces (51,6% gegenüber 35,6%) sind deutliche Verbesserungen gegenüber Deekseek-V2.5, insbesondere in AIMe 2024 (39,2% gegenüber 23,3%), was einem verbesserten Argument und wettbewerbsfähigen Programmierfähigkeiten zeigt.

Diese Bewertung zeigt die überlegenen Fähigkeiten von Deepseek-V3 bei der Behandlung komplexer Denken, fortschrittlicher Mathematik und wettbewerbsfähiger Programmieraufgaben.

Auch hier ist die Bewertung der offenen Erzeugung der Beendigung:

Modell Arena-Hard Alpakaeval 2.0
Deepseek-V2.5-0905 76,2 50,5
QWEN2.5-72B-Instruktur 81.2 49.1
Lama-3.1 405b 69.3 40.5
GPT-4O-0513 80.4 51.1
Claude-sonnet-3.5-1022 85.2 52.0
Deepseek-V3 85,5 70.0
  1. Arena-harte Leistung :
    • Deepseek-V3 ist mit 85,5 am höchsten, knapp über Claude-SONNET-3,5 (85,2) und übertrifft Deepseek-V2.5 (76,2) signifikant.
    • Dies zeigt seine außergewöhnliche Fähigkeit, in schwierigen Szenarien abgerundete, kontextbewusste Reaktionen zu erzeugen.
  2. Alpacaeval 2.0 Leistung :
    • Deepseek-V3 führt mit 70,0, weit vor Claude-sonnet-3,5 (52,0), dem zweitbesten Darsteller.
    • Dies zeigt signifikante Verbesserungen der Benutzerpräferenz und der Gesamtqualität von Open-End-Ausgängen und zeigt eine bessere Ausrichtung auf die Erwartungen der Benutzer.
  3. Vergleich mit Wettbewerbern :
    • Qwen2.5 (Arena-Hard: 81.2, Alpacaeval: 49,1):
      • Funktioniert einigermaßen gut in Arena-Hard, fällt jedoch in der Benutzerpräferenz in den Benutzer, was auf eine schwächere Ausrichtung auf benutzerfreundliche Antwortstile hinweist.
    • GPT-4-0513 (Arena-Hard: 80,4, Alpacaeval: 51.1):
      • Wettbewerbsfähig für beide Metriken, passt aber nicht mit der benutzerzentrierten Qualität von Deepseek-V3 überein.
    • LAMA-3.1 (Arena-Hard: 69,3, Alpacaeval: 40,5):
      • Bei beiden Benchmarks senken Sie die schwächeren Funktionen der offenen Erzeugung.
    • Deepseek-V2.5 (Arena-Hard: 76,2, Alpacaeval: 50,5):
      • Der Sprung von V2.5 bis v3 ist erheblich und weist auf wichtige Upgrades bei der Reaktionskohärenz und der Ausrichtung der Benutzerpräferenz hin.

Sie können sich auch darauf beziehen, um die Bewertung besser zu verstehen:

Deepseek V3: Das 685B-Modell schlägt GPT-4O und Lama 3.1

Link zum Deepseek V3 Github

AID -Polyglot -Benchmark -Ergebnisse

Deepseek V3: Das 685B-Modell schlägt GPT-4O und Lama 3.1

Hier sind die Ergebnisse der AID -Polyglot -Benchmark , die Modelle auf ihre Fähigkeit bewertet, Aufgaben korrekt zu erledigen. Die Bewertung ist in zwei Ausgangsformate unterteilt:

  • Diff-ähnliches Format (schattierte Balken) : Aufgaben, bei denen Ausgänge Code-Diffs oder kleine Aktualisierungen ähneln.
  • Ganzes Format (solide Balken) : Aufgaben, die die Erzeugung einer gesamten Antwort erfordern.

Schlüsselbeobachtungen

  1. Top -Performer :
    • O1-2024-11-12 (Tingli) führt den Benchmark mit einer Genauigkeit von fast 65% im gesamten Form an und zeigt eine außergewöhnliche Leistung über die Aufgaben hinweg.
    • Deepseek Chat V3 Preview und Claude-3.5 Sonnet-2024-1022 folgen genau, mit Punktzahlen im Bereich von 40–50%, was in beiden Formaten solide Aufgaben abschließt.
  2. Mittelperformer :
    • Gemini EXP-1206 und Claude-3,5 Haiku-2024-1022 erzielen in beiden Formaten mäßig mäßig und zeigen eine ausgewogene, aber durchschnittliche Leistung hervor.
    • Deepseek Chat v2.5 und Flash-2.0 sitzen im unteren Mittelbereich und zeigen schwächere Fähigkeiten zur Aufgabenauflösung im Vergleich zu den führenden Modellen.
  3. Niedrigere Darsteller :
    • Y-Lightning, Qwen2.5-Codierer 32B-Instruct und GPT-4O-Mini 2024-07-18 haben die niedrigsten Werte mit Genauigkeiten unter 10–15%. Dies zeigt signifikante Einschränkungen bei der Umstellung sowohl diff-ähnlicher als auch ganzer Formataufgaben.
  4. Formatvergleich :
    • Modelle funktionieren im gesamten Format im Allgemeinen etwas besser als das diff-ähnliche Format, was impliziert, dass die Erzeugung der vollständigen Reaktion besser behandelt wird als kleinere, inkrementelle Veränderungen.
    • Die schattierten Balken (Diff-ähnliches Format) sind konsistent niedriger als ihre gesamten Format-Gegenstücke, was auf eine konsistente Lücke in dieser spezifischen Fähigkeit hinweist.

Die Position von Deepseek Chat V3 Preview:

  • Rang zu den drei besten Darstellern.
  • Bewertet im gesamten Format etwa 50% und im diff-ähnlichen Format etwas niedriger.
  • Dies zeigt starke Fähigkeiten bei der Umgang mit der vollständigen Aufgabengenerierung, lässt jedoch Raum für Verbesserungen bei diff-ähnlichen Aufgaben.

Einsichten:

  • Der Benchmark unterstreicht die unterschiedlichen Stärken und Schwächen der bewerteten Modelle.
  • Modelle wie O1-2024-11-12 zeigen die Dominanz in beiden Aufgabenformaten, während andere wie Deepseek Chat V3 Vorschau hauptsächlich in der Vollaufgabe-Generation hervorrufen.
  • Niedrigere Performer geben einen Optimierungsbedarf sowohl in nuancierten als auch in breiteren Funktionen zur Aufgabe.

Dies spiegelt letztendlich die Vielseitigkeit und die speziellen Stärken verschiedener KI -Systeme bei der Erledigung von Benchmark -Aufgaben wider.

Die Chat -Website und API -Plattform von Deepseek V3

  1. Sie können über die offizielle Website: Deepseek Chat mit Deepseek-V3 interagieren.

Deepseek V3: Das 685B-Modell schlägt GPT-4O und Lama 3.1

  1. Darüber hinaus bieten sie eine OpenAI-kompatible API auf der Deepseek-Plattform: Link .
    Es gibt eine API -Kosten und es hängt von den Token ab:

Deepseek V3: Das 685B-Modell schlägt GPT-4O und Lama 3.1

Wie laufe ich Deepseek V3?

Wenn Sie es vorziehen, die Chat -Benutzeroberfläche nicht zu verwenden und direkt mit dem Modell arbeiten möchten, gibt es eine Alternative für Sie. Das Modell Deepseek-V3 hat alle seine Gewichte auf dem Umarmungsgesicht freigesetzt. Sie können dort auf die Safetensor -Dateien zugreifen.

Modellgröße und Hardwareanforderungen:

Erstens ist das Modell mit 671 Milliarden Parametern massiv, was es schwierig macht, auf Standard-Hardware für Verbraucherqualität zu betreiben. Wenn Ihre Hardware nicht leistungsfähig genug ist, wird empfohlen, die Deepseek -Plattform für den direkten Zugriff zu verwenden. Warten Sie auf einen Umarmungsraum, wenn einer verfügbar ist.

Wie renne ich vor Ort?

Wenn Sie über ausreichende Hardware verfügen, können Sie das Modell mithilfe der Deepseek-Infer-Demo, Sglang, Lmdeploy, Tensorrt-Llm, VLLM, AMD GPU, Huawei Ascend NPU ausführen.

Konvertieren Sie das Modell in eine quantisierte Version , um die Speicheranforderungen zu reduzieren, was besonders für Systeme mit niedrigeren Enden hilfreich ist.

So können Sie FP8 -Gewichte in BF16 umwandeln:

Konvertierungsskript, wenn Sie BF16 benötigen

 CD -Inferenz
python fp8_cast_bf16.py--input-fp8-hf-path/path/to/fp8_Weights-Output-Bf16-HF-Path/Path/TO/BF16_WEIGHTSSSS
Nach dem Login kopieren

Einrichtungsprozess mit Deepseek-Infer-Demo

Das Umarmung der Transformers -Bibliothek von Face unterstützt das Modell noch nicht direkt. Um es einzurichten, müssen Sie:

Klonen Sie das Deepseek ai Github -Repository :

 Git Clone https://github.com/deepseek-ai/deepseek-v3.git
Nach dem Login kopieren

Installieren Sie die erforderlichen Abhängigkeiten:

 CD Deepseek-V3/Inferenz
PIP Installation -r Anforderungen.txt
Nach dem Login kopieren

Laden Sie die Umarmungs -Gesichts -Checkpoints herunter und führen Sie das Modell lokal aus.

Beziehen Sie sich darauf: Deepseek v3

Empfehlung:

  • Wenn Sie leistungsstarke Hardware haben, führen Sie das Modell lokal aus, um das Potenzial vollständig zu untersuchen.
  • Andernfalls verwenden Sie die Deepseek.com -Chat -Benutzeroberfläche oder ihre API -Plattform für nahtlosen Zugriff.

LLM Deepseek Plugin

Sie können auch LLM-Deepseek-Plugin verwenden, um auf das Modell zuzugreifen:

 # Schritt 1: Installieren Sie das LLM -Paket
! Pip Installation LLM
# Schritt 2: Installieren Sie das Deepseek -Plugin
! LLM Installieren Sie LLM-Deepseek
# Schritt 3: Stellen Sie die Deepseek -API -Schlüssel ein
! LLM -Tasten setzen Deepseek
# Fügen Sie Ihre API -Taste ein, wenn Sie aufgefordert werden
# Schritt 4: Führen Sie das Deepseek -Chat -Modell aus
!
# Schritt 5: Führen Sie das Deepseek Codierer -Modell aus
!
Nach dem Login kopieren

Deepseek V3 Experimente

Auf der Deepseek -Plattform können Sie das Web erkunden und tiefgreifende Argumente eingehen, um komplexe Probleme zu lösen, ähnlich wie bei OpenAIs Ansatz.

Deepseek V3: Das 685B-Modell schlägt GPT-4O und Lama 3.1

Hier sind einige Eingabeaufforderungen und Ausgänge:

Erstes Experiment

Eingabeaufforderung: Erzeugen Sie ein SVG eines Kindes und einen Fußball

Ausgabe:

Hier ist eine einfache SVG -Darstellung eines Kindes, das mit einem Fußball spielt. Du kannst
Kopieren und fügen Sie diesen Code in eine HTML -Datei oder einen SVG -Viewer ein, um die zu sehen
Bild:

 <svg xmlns="http://www.w3.org/2000/svg" viewbox="0 0 200 200" width="200" h>



<kreis cx="100" cy="70" r="20" fill="#ffcc99"></kreis>



<rect x="90" y="90" width="20" height="40" fill="#4caf50"></rect>



<zeile x1="80" y1="100" x2="60" y2="110" stroke="#4CAF50" strece-widhth="5"></zeile>

<zeile x1="120" y1="100" x2="140" y2="110" stroke="#4CAF50" stroke-width="5"></zeile>



<zeile x1="95" y1="130" x2="85" y2="160" stroke="#4CAF50" strek-width="5"></zeile>

<zeile x1="105" y1="130" x2="115" y2="160" stroke="#4CAF50" strek-width="5"></zeile>



<ellipse cx="140" cy="140" rx="10" ry="5" fill="#8b4513"></ellipse>

<zeile x1="135" y1="140" x2="145" y2="140" stroke="#ffffff" stroke-width="2"></zeile>

<zeile x1="140" y1="137" x2="140" y2="143" stroke="#ffffff" stroke-width="2"></zeile>

</svg>

Erläuterung:

Das Kind ist mit einfachen Formen dargestellt: ein Kreis für den Kopf, ein Rechteck
 für den Körper und Linien für die Arme und Beine.

Der Fußball ist eine Ellipse mit zwei weißen Linien, um den klassischen Fußball nachzuahmen
 Design.

Sie können die Farben, Größen und Positionen anpassen, um das Bild anzupassen
 weiter.

Lassen Sie mich wissen, ob Sie dies verbessern oder ändern möchten!
Nach dem Login kopieren

Deepseek V3: Das 685B-Modell schlägt GPT-4O und Lama 3.1

Zweites Experiment

Eingabeaufforderung: Erstellen Sie das klassische Schlangenspiel

Ausgabe:

Das Erstellen des klassischen Schlangenspiels beinhaltet die Verwendung von HTML, CSS und JavaScript
. Unten finden Sie eine einfache Implementierung:

 



<kopf>

<meta charset="utf-8">

<meta name="viewPort" content="width = Gerätebreite, initial-scale = 1,0">

<title> Schlangenspiel </title>

<styles>

Körper {

Anzeige: Flex;

Justify-Content: Center;

Ausrichtung: Zentrum;

Höhe: 100VH;

Rand: 0;

Hintergrundfarbe: #000;

}

Leinwand {

Grenze: 1PX Solid #fff;

}







<canvas width="400" height="400"> </canvas>

<script src="snake.js"> </script>



</styles></kopf>
Nach dem Login kopieren

Das obige ist der detaillierte Inhalt vonDeepseek V3: Das 685B-Modell schlägt GPT-4O und Lama 3.1. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage