Gestern Abend hat Meta die Llama 3 8B- und 70B-Modelle veröffentlicht, die für Konversations-/Chat-Anwendungsfälle fein abgestimmt und optimiert sind und viele bestehende Open-Source-Chat-Modelle in gängigen Benchmarks übertreffen. Zum Beispiel Gemma 7B und Mistral 7B.
Das Llama+3-Modell verfügt über verbesserte Daten und Skalierbarkeit und erreicht neue Höhen. Es wurde mit mehr als 15T Datentokens auf zwei benutzerdefinierten 24K-GPU-Clustern trainiert, die kürzlich von Meta veröffentlicht wurden. Dieser Trainingsdatensatz ist siebenmal größer als Llama 2 und enthält viermal mehr Code. Dies bringt die Fähigkeiten des Llama-Modells auf das aktuell höchste Niveau und unterstützt Textlängen von mehr als 8 KB, doppelt so viel wie Llama 2.
Im Folgenden stelle ich Ihnen 6 Möglichkeiten vor, wie Sie das neu veröffentlichte Llama 3 schnell erleben können!
https: //www.llama2.ai/
https://lmstudio.ai/
https ://marketplace.visualstudio.com/items?itemName=DanielSanMedium.dscodegpt&ssr=false
Bevor Sie CodeGPT verwenden, denken Sie daran, Ollama zu verwenden, um das entsprechende Modell abzurufen. Um beispielsweise das Modell „llama3:8b“ zu ziehen: olama pull llama3:8b. Wenn Sie ollama nicht lokal installiert haben, können Sie diesen Artikel „Bereitstellung eines lokalen großen Sprachmodells in nur wenigen Minuten“ lesen.
Run Llama 3 8B Modell:
ollama run llama3
Run Llama 3 70B Modell:
ollama run llama3:70b
https://pinokio.computer/item ?uri=https://github.com/cocktailpeanutlabs/open-webui.
Das obige ist der detaillierte Inhalt vonSechs schnelle Möglichkeiten, das neu veröffentlichte Llama 3 zu erleben!. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!