Am 25. September 2021 veröffentlichte Alibaba Cloud das Open-Source-Projekt Tongyi Qianwen 14 Milliarden Parametermodell Qwen-14B und sein Konversationsmodell Qwen-14B-Chat, und sie sind für die kommerzielle Nutzung kostenlos. Qwen-14B hat in mehreren maßgeblichen Bewertungen gut abgeschnitten, Modelle gleicher Größe übertroffen und weist sogar einige Indikatoren auf, die denen von Llama2-70B nahe kommen. Zuvor hat Alibaba Cloud auch das 7-Milliarden-Parameter-Modell Qwen-7B als Open-Source-Modell bereitgestellt. Die Anzahl der Downloads überstieg 1 Million in etwas mehr als einem Monat, was es zu einem beliebten Projekt in der Open-Source-Community macht. Qwen-14B ist ein Hochleistungsmodell das mehrere Sprachen unterstützt. Das Open-Source-Modell verwendet mehr hochwertige Daten als ähnliche Modelle, und die gesamten Trainingsdaten übersteigen 3 Billionen Token, wodurch das Modell leistungsfähiger in den Bereichen Argumentation, Erkenntnis, Planung und Gedächtnis wird. Qwen-14B unterstützt eine maximale Kontextfensterlänge von 8 KB.
Abbildung 1: Qwen-14B hat in zwölf maßgeblichen Bewertungen die großen SOTA-Modelle des gleichen Maßstabs in allen Aspekten übertroffen.Qwen-14B-Chat ist ein Konversationsmodell, das von Fine SFT auf dem Basismodell erhalten wurde. Mit der leistungsstarken Leistung des Basismodells wurde die Genauigkeit der von Qwen-14B-Chat generierten Inhalte erheblich verbessert und entspricht mehr den menschlichen Vorlieben. Auch die Vorstellungskraft und der Reichtum der Inhaltserstellung wurden erheblich erweitert.
Qwen verfügt über hervorragende Tool-Aufruffunktionen, die Entwicklern dabei helfen können, Qwen-basierte Agenten schneller zu erstellen. Mithilfe einfacher Anweisungen können Entwickler Qwen den Umgang mit komplexen Werkzeugen beibringen, beispielsweise die Verwendung des Code Interpreter-Tools zum Ausführen von Python-Code für komplexe mathematische Berechnungen, Datenanalysen und Diagrammzeichnungen. Darüber hinaus kann Qwen auch „fortgeschrittene digitale Assistenten“ mit Funktionen wie Fragen und Antworten für mehrere Dokumente und Schreiben von Langtexten entwickeln. Große Sprachmodelle mit Parameterebenen im Bereich von mehreren zehn Milliarden sind derzeit die gängige Wahl für Entwickler, um Anwendungen zu entwickeln und zu iterieren. Qwen-14B hat die Leistungsobergrenze kleiner Modelle weiter verbessert und in 12 maßgeblichen Bewertungen, darunter MMLU, C-Eval, GSM8K, MATH, GaoKao-Bench usw., die besten Ergebnisse erzielt und SOTA (State-Of) übertroffen Alle Bewertungen. -The-Art) großes Modell, auch Llama-2-13B völlig übertroffen. Gleichzeitig wurde auch Qwen-7B komplett aufgerüstet, wobei die Kernindikatoren um bis zu 22,5 % erhöht wurden Sie können Modelle direkt von der Moda-Community herunterladen oder über die Alibaba Cloud Lingji-Plattform auf Qwen-14B und Qwen-14B-Chat zugreifen und diese anrufen. Alibaba Cloud bietet Benutzern umfassende Dienste, einschließlich Modellschulung, Inferenz, Bereitstellung und Feinabstimmung.
Im August eröffnete Alibaba Cloud das 7-Milliarden-Parameter-Basismodell Qwen-7B von Tongyi Qianwen, das auf HuggingFace und Github eingeführt wurde. Trendliste. In etwas mehr als einem Monat überstiegen die kumulierten Downloads eine Million. Mehr als 50 auf Qwen basierende Modelle sind in der Open-Source-Community erschienen, und viele bekannte Tools und Frameworks in der Community haben Qwen integriert.
Tongyi Qianwen ist das ausführlichste und am weitesten verbreitete Großmodell in China. Es gibt bereits viele inländische Anwendungen, die mit Tongyi Qianwen verbunden sind, und die monatlich aktiven Nutzer dieser Anwendungen liegen bei über 100 Millionen. Viele kleine und mittlere Unternehmen, wissenschaftliche Forschungseinrichtungen und einzelne Entwickler nutzen Tongyi Qianwen, um exklusive Großmodelle oder Anwendungsprodukte zu entwickeln. Beispielsweise haben Alibabas Taobao, DingTalk und Future Wizards sowie externe wissenschaftliche Forschungseinrichtungen und unternehmerische Unternehmen
Zhejiang University and Higher Education Press das auf Qwen-7B basierende vertikale Bildungsmodell Zhihai-Sanle entwickelt, das in 12 Ländern eingesetzt wird landesweit Bewerbung an allen Universitäten. Das Modell verfügt über Funktionen wie intelligente Fragebeantwortung, Testfragengenerierung, Lernnavigation und Lehrbewertung. Das Modell wurde auf der Alibaba Cloud Lingji-Plattform bereitgestellt und kann mit nur einer Codezeile aufgerufen werden. Zhejiang Youlu Robot Technology Co., Ltd. hat Qwen-7B in seinen Straßenreinigungsroboter integriert, sodass der Roboter in Echtzeit mit Benutzern interagieren und deren Bedürfnisse verstehen kann. Es kann die Anweisungen des Benutzers auf hoher Ebene analysieren und zerlegen, eine logische Analyse und Aufgabenplanung durchführen und dadurch die Reinigungsaufgabe abschließen. Zhou Jingren, CTO von Alibaba Cloud, sagte, dass Alibaba Cloud weiterhin Open Source unterstützen und fördern wird und sich der Förderung verpflichtet hat Aufbau von Chinas großem Modell-Ökosystem. Alibaba Cloud glaubt fest an die Leistungsfähigkeit von Open Source und ist das erste Unternehmen, das seine eigene Großmodelltechnologie als Open Source anbietet, in der Hoffnung, dass mehr kleine und mittlere Unternehmen sowie einzelne Entwickler schneller auf Großmodelltechnologie zugreifen und diese anwenden könnenAlibaba Cloud leitet auch Chinas größte KI Der Aufbau von ModelScope, einer Modell-Open-Source-Community, vereint die Kräfte der gesamten Branche, um gemeinsam die Popularisierung und Anwendung großer Modelltechnologie voranzutreiben. In den letzten zwei Monaten ist die Zahl der Modell-Downloads in der Moda-Community von 45 Millionen auf 85 Millionen gestiegen, ein Anstieg von fast 100 %
Der neu geschriebene Inhalt lautet wie folgt: Anhang:
Moda-Community-Modelladresse:
Was sind die Erfahrungen mit dem Moda-Community-Modell? 🔜 f5 d8b5bc36f60304a15
Der Inhalt, der neu geschrieben werden muss, ist: Qwen-Papier-Link:
https://www.php.cn/link/0247f3dd8490622 3785fdd b18353bafe
Das obige ist der detaillierte Inhalt vonDas Alibaba Cloud Tongyi Qianwen 14B-Modell ist Open Source! Die Leistung übertrifft Llama2 und andere Modelle derselben Größe. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!