Am 7. April informierte Alibaba Cloud Qianwen über das Open-Source-Modell Qwen1.5-32B mit 32 Milliarden Parametern, das das Gleichgewicht zwischen Leistung, Effizienz und Speichernutzung maximieren kann und Unternehmen und Entwicklern eine kostengünstigere Modellauswahl bietet. Derzeit hat Notification Qianwen insgesamt 6 große Sprachmodelle als Open Source bereitgestellt, und die kumulierten Downloads in Open Source-Communities im In- und Ausland haben 3 Millionen überschritten.
Allgemeine Frage Qianwen hat zuvor Modelle mit 500 Millionen, 1,8 Milliarden, 4 Milliarden, 7 Milliarden, 14 Milliarden und 72 Milliarden Parametern entwickelt und alle wurden auf Version 1.5 aktualisiert. Darunter können mehrere kleine Modelle problemlos auf der Geräteseite bereitgestellt werden, und das 72-Milliarden-Parameter-Modell weist eine branchenführende Leistung auf und wurde viele Male auf HuggingFace und anderen Modelllisten aufgeführt. Das Open-Source-Modell mit 32 Milliarden Parametern wird ein idealeres Gleichgewicht zwischen Leistung, Effizienz und Speichernutzung erreichen. Im Vergleich zum 14B-Modell verfügt 32B beispielsweise über stärkere Fähigkeiten in Agentenszenarien. Im Vergleich zu 72B weist 32B geringere Argumentationskosten auf. Das allgemeine Problemteam hofft, dass das 32B-Open-Source-Modell bessere Lösungen für nachgelagerte Anwendungen bieten kann.
In Bezug auf die Grundfunktionen hat das 32-Milliarden-Parametermodell von Qianwen in mehreren Tests wie MMLU, GSM8K, HumanEval, BBH usw. eine gute Leistung erbracht. Die Leistung kommt dem 72-Milliarden-Parametermodell von Qianwen nahe und übertrifft dieses bei weitem 30-Milliarden-Parametermodell.
Was das Chat-Modell betrifft, erzielte das Qwen1.5-32B-Chat-Modell in der MT-Bench-Bewertung mehr als 8 Punkte, und der Abstand zum Qwen1.5-72B-Chat ist relativ gering.
Menschen mit umfassenden Sprachkenntnissen können dies in mehreren Bereichen wie Prüfungen, Verständnis, Mathematik und Übersetzung tun, nachdem sie 12 Sprachen ausgewählt haben, darunter Arabisch, Spanisch, Französisch, Japanisch, Koreanisch usw., bewertet. Die Mehrsprachenfähigkeit von Qwen1.5-32B ist auf das allgemeine Qwen-72-Milliarden-Parametermodell beschränkt.
Das obige ist der detaillierte Inhalt vonTongyi Qianwen verfügt über 32 Milliarden Parametermodelle als Open Source und hat alle sieben wichtigen Sprachmodelle als Open Source realisiert.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!