Alibaba Cloud hat heute ein Open-Source-Projekt namens Qwen-14B angekündigt, das ein parametrisches Modell und ein Konversationsmodell umfasst. Dieses Open-Source-Projekt ermöglicht die kostenlose kommerzielle Nutzung
Aussage dieser Website: Alibaba Cloud hat zuvor ein Parametermodell Qwen-7B im Wert von 7 Milliarden als Open-Source-Quelle bereitgestellt, und das Downloadvolumen hat in mehr als einem Monat die 1-Millionen-Marke überschritten
Den von Alibaba Cloud bereitgestellten Daten zufolge übertrifft Qwen-14B in mehreren maßgeblichen Bewertungen Modelle gleicher Größe, und einige Indikatoren liegen sogar nahe an Llama2-70B.
Berichten zufolge handelt es sich bei Qwen-14B um ein leistungsstarkes Open-Source-Modell, das mehrere Sprachen unterstützt. Seine gesamten Trainingsdaten übersteigen 3 Billionen Token, verfügen über stärkere Argumentations-, Erkenntnis-, Planungs- und Gedächtnisfähigkeiten und unterstützen eine maximale Kontextfensterlänge von 8k
Im Gegensatz dazu basiert Qwen-14B-Chat auf dem Basismodell. Das durch erhaltene Dialogmodell Eine verfeinerte SFT kann genauere Inhalte liefern, die den menschlichen Vorlieben besser entsprechen, und außerdem die Vorstellungskraft und den Reichtum der Inhaltserstellung erweitern.
Ab heute können Benutzer Modelle direkt aus der Alibaba Moda-Community herunterladen und über die Alibaba Cloud Lingji-Plattform auch auf Qwen-14B und Qwen-14B-Chat zugreifen und diese anrufen.
Zhou Jingren, CTO von Alibaba Cloud, sagte, dass Alibaba Cloud weiterhin Open Source und Offenheit fördern und den Aufbau von Chinas großem Modell-Ökosystem fördern werde. Alibaba Cloud glaubt fest an die Leistungsfähigkeit von Open Source und übernimmt die Führung bei selbst entwickelten Open-Source-Großmodellen, in der Hoffnung, die Technologie großer Modelle schneller für kleine und mittlere Unternehmen und einzelne Entwickler bereitzustellen.
https://modelscope.cn/stud/qwen/Qwen-14B-Chat-Demo
Python-Version 3.8 und höher
Pytorch-Version 1.12 und höher, Version 2.0 und höher empfohlen
Es wird empfohlen, CUDA 11.4 und höher zu verwenden (GPU-Benutzer müssen diese Option in Betracht ziehen)
Hinweis: Unter der Umgebungskonfiguration von ausführen PAI-DSW (Sie können eine einzelne Karte zum Ausführen verwenden, die Mindestanforderung an den Videospeicher beträgt 11 GB)
Qwen-14B-Chat-Modell-Link:
https://modelscope.cn/models/qwen/Qwen -14B-Chat
Qwen-14B-Modell-Link:
https://modelscope.cn/models/qwen/Qwen-14B
Qwen-14B-Chat-Int4-Modell-Link :
https://www .modelscope.cn/models/qwen/Qwen-14B-Chat-Int4
Die Community unterstützt das direkte Herunterladen des Repos des Modells:
from modelscope.hub.snapshot_download import snapshot_download
<br>
model_dir = snapshot_download('qwen/Qwen-14B-Chat', 'v1.0.0')
Werbehinweis: Externer Sprung Die im Artikel enthaltenen Links (einschließlich, aber nicht beschränkt auf Hyperlinks, QR-Code, Passwort usw.) dienen der Übermittlung weiterer Informationen und der Zeitersparnis bei der Auswahl. Die Ergebnisse dienen nur als Referenz. Alle Artikel auf dieser Website enthalten diese Erklärung.
Das obige ist der detaillierte Inhalt vonAlibaba Cloud gab bekannt, dass es Tongyi Qianwens 14-Milliarden-Parameter-Modell Qwen-14B und sein Dialogmodell als Open Source veröffentlichen wird, die für die kommerzielle Nutzung kostenlos sein werden.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!