Tongyi Qianwen verfügt über 32 Milliarden Parametermodelle als Open Source und hat alle sieben wichtigen Sprachmodelle als Open Source realisiert.

WBOY
Freigeben: 2024-04-08 15:31:27
nach vorne
1030 Leute haben es durchsucht

Am 7. April informierte Alibaba Cloud Qianwen über das Open-Source-Modell Qwen1.5-32B mit 32 Milliarden Parametern, das das Gleichgewicht zwischen Leistung, Effizienz und Speichernutzung maximieren kann und Unternehmen und Entwicklern eine kostengünstigere Modellauswahl bietet. Derzeit hat Notification Qianwen insgesamt 6 große Sprachmodelle als Open Source bereitgestellt, und die kumulierten Downloads in Open Source-Communities im In- und Ausland haben 3 Millionen überschritten.

Allgemeine Frage Qianwen hat zuvor Modelle mit 500 Millionen, 1,8 Milliarden, 4 Milliarden, 7 Milliarden, 14 Milliarden und 72 Milliarden Parametern entwickelt und alle wurden auf Version 1.5 aktualisiert. Darunter können mehrere kleine Modelle problemlos auf der Geräteseite bereitgestellt werden, und das 72-Milliarden-Parameter-Modell weist eine branchenführende Leistung auf und wurde viele Male auf HuggingFace und anderen Modelllisten aufgeführt. Das Open-Source-Modell mit 32 Milliarden Parametern wird ein idealeres Gleichgewicht zwischen Leistung, Effizienz und Speichernutzung erreichen. Im Vergleich zum 14B-Modell verfügt 32B beispielsweise über stärkere Fähigkeiten in Agentenszenarien. Im Vergleich zu 72B weist 32B geringere Argumentationskosten auf. Das allgemeine Problemteam hofft, dass das 32B-Open-Source-Modell bessere Lösungen für nachgelagerte Anwendungen bieten kann.

Tongyi Qianwen verfügt über 32 Milliarden Parametermodelle als Open Source und hat alle sieben wichtigen Sprachmodelle als Open Source realisiert.

In Bezug auf die Grundfunktionen hat das 32-Milliarden-Parametermodell von Qianwen in mehreren Tests wie MMLU, GSM8K, HumanEval, BBH usw. eine gute Leistung erbracht. Die Leistung kommt dem 72-Milliarden-Parametermodell von Qianwen nahe und übertrifft dieses bei weitem 30-Milliarden-Parametermodell.

Tongyi Qianwen verfügt über 32 Milliarden Parametermodelle als Open Source und hat alle sieben wichtigen Sprachmodelle als Open Source realisiert.

Was das Chat-Modell betrifft, erzielte das Qwen1.5-32B-Chat-Modell in der MT-Bench-Bewertung mehr als 8 Punkte, und der Abstand zum Qwen1.5-72B-Chat ist relativ gering.

Tongyi Qianwen verfügt über 32 Milliarden Parametermodelle als Open Source und hat alle sieben wichtigen Sprachmodelle als Open Source realisiert.

Menschen mit umfassenden Sprachkenntnissen können dies in mehreren Bereichen wie Prüfungen, Verständnis, Mathematik und Übersetzung tun, nachdem sie 12 Sprachen ausgewählt haben, darunter Arabisch, Spanisch, Französisch, Japanisch, Koreanisch usw., bewertet. Die Mehrsprachenfähigkeit von Qwen1.5-32B ist auf das allgemeine Qwen-72-Milliarden-Parametermodell beschränkt.

Tongyi Qianwen verfügt über 32 Milliarden Parametermodelle als Open Source und hat alle sieben wichtigen Sprachmodelle als Open Source realisiert.

Das obige ist der detaillierte Inhalt vonTongyi Qianwen verfügt über 32 Milliarden Parametermodelle als Open Source und hat alle sieben wichtigen Sprachmodelle als Open Source realisiert.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:jiqizhixin.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage