Auf der Hangzhou Computing Conference 2023 veröffentlichte Zhou Jingren, Chief Technology Officer von Alibaba Cloud, Tongyi Qianwen 2.0, ein großes Modell mit Hunderten von Milliarden Parametern. In 10 maßgeblichen Bewertungen übertraf die Gesamtleistung von Tongyi Qianwen 2.0 GPT-3,5 und holt immer schneller GPT-4 ein.
Es wird berichtet, dass Tongyi Qianwen 2.0 in den letzten sechs Monaten große Fortschritte gemacht hat. Im Vergleich zur im April veröffentlichten Version 1.0 hat Tongyi Qianwen 2.0 seine Fähigkeiten in den Bereichen komplexes Befehlsverständnis, literarisches Schaffen, allgemeine Mathematik, Wissensgedächtnis und Halluzinationsresistenz deutlich verbessert. Derzeit übertrifft die Gesamtleistung von Tongyi Qianwen GPT-3.5 und beschleunigt den Anschluss an GPT-4
Tongyi Qianwen 2.0 wurde anhand von 10 Mainstream-Benchmarks bewertet, darunter MMLU, C-Eval, GSM8K, HumanEval, und MATH Die Gesamtpunktzahl am Set übertrifft Metas Llama-2-70B, die Gewinnquote ist 91 % höher als bei OpenAIs Chat-3.5, 46 % höher als bei GPT-4 und der Abstand zu GPT-4 ist weiter kleiner geworden
Chinesisch und die Fähigkeit, Englisch zu verstehen, ist die Grundkompetenz großer Sprachmodelle. Bei den englischen Aufgaben erzielte Tongyi Qianwen 2.0 im MMLU-Benchmark den zweiten Platz nach GPT-4. Durch die deutliche Erhöhung der Anzahl der Parameter kann Tongyi Qianwen 2.0 komplexe Sprachstrukturen und -konzepte besser verstehen und verarbeiten , Tongyi Qianwen 2.0 erreichte die höchste Punktzahl im C-Eval-Benchmark mit einem klaren Vorteil. Dies liegt daran, dass das Modell während des Trainings mehr Chinesisch-Korpus gelernt hat, wodurch sein Chinesisch-Verständnis und seine Ausdrucksfähigkeiten weiter gestärkt wurden.
In Bereichen wie mathematischem Denken und Codeverständnis hat Tongyi Qianwen 2.0 erhebliche Fortschritte gemacht. Im Argumentations-Benchmark-Test GSM8K belegte Tongyi Qianwen den zweiten Platz und demonstrierte starke Rechen- und logische Denkfähigkeiten. Im HumanEval-Test lag Tongyi Qianwens Punktzahl dicht hinter GPT-4 und GPT-3.5, was hauptsächlich die Fähigkeit des Modells misst Das Verstehen und Ausführen von Codefragmenten ist die Grundlage für große Modelle, die in Szenarien wie Programmierunterstützung und automatischer Codereparatur verwendet werden.
Das obige ist der detaillierte Inhalt vonAlibaba Cloud veröffentlicht Tongyi Qianwen 2.0 mit beschleunigter Leistung, um mit GPT-4 gleichzuziehen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!