Inhaltsverzeichnis
Grundlegende Fähigkeiten
Mehrsprachigkeitsfähigkeiten
Lange Sequenzen
Anbindung an externe Systeme
Heim Technologie-Peripheriegeräte KI Tongyi Qianwen ist wieder Open Source, Qwen1.5 bietet sechs Volumenmodelle und seine Leistung übertrifft GPT3.5

Tongyi Qianwen ist wieder Open Source, Qwen1.5 bietet sechs Volumenmodelle und seine Leistung übertrifft GPT3.5

Feb 07, 2024 pm 10:15 PM
ai 训练

Vor dem Frühlingsfest ist Version 1.5 von Tongyi Qianwen Large Model (Qwen) online. Heute Morgen löste die Nachricht über die neue Version Besorgnis in der KI-Community aus.

Die neue Version des großen Modells umfasst sechs Modellgrößen: 0,5B, 1,8B, 4B, 7B, 14B und 72B. Unter ihnen übertrifft die Leistung der stärksten Version GPT 3.5 und Mistral-Medium. Diese Version umfasst das Basismodell und das Chat-Modell und bietet Unterstützung für mehrere Sprachen.

Das Team von Alibaba Tongyi Qianwen gab an, dass die entsprechende Technologie auch auf der offiziellen Website von Tongyi Qianwen und der Tongyi Qianwen App eingeführt wurde.

Darüber hinaus bietet die heutige Version von Qwen 1.5 folgende Highlights:

  • unterstützt 32K Kontextlänge;
  • öffnet den Checkpoint des Base + Chat-Modells;
  • kann mit verwendet werden Transformers Läuft lokal;
  • GPTQ Int-4/Int8, AWQ und GGUF-Gewichte werden gleichzeitig veröffentlicht.

Unter Verwendung fortschrittlicherer Großmodelle als Juroren führte das Team von Tongyi Qianwen eine vorläufige Bewertung von Qwen1.5 anhand zweier weit verbreiteter Benchmarks durch, MT-Bench und Alpaca-Eval. Die Bewertungsergebnisse lauten wie folgt:

Tongyi Qianwen ist wieder Open Source, Qwen1.5 bietet sechs Volumenmodelle und seine Leistung übertrifft GPT3.5

Obwohl das Qwen1.5-72B-Chat-Modell hinter GPT-4-Turbo zurückbleibt, zeigte es in Tests auf MT-Bench und Alpaca-Eval v2 eine beeindruckende Leistung. Fangleistung. Tatsächlich übertrifft Qwen1.5-72B-Chat Claude-2.1, GPT-3.5-Turbo-0613, Mixtral-8x7b-instruct und TULU 2 DPO 70B in der Leistung und ist mit dem Mistral Medium-Modell vergleichbar, das in letzter Zeit viel Aufmerksamkeit erregt hat . Vergleichbar. Dies zeigt, dass das Qwen1.5-72B-Chat-Modell eine beträchtliche Stärke bei der Verarbeitung natürlicher Sprache aufweist.

Das Team von Tongyi Qianwen wies darauf hin, dass die Ergebnisse großer Modelle zwar möglicherweise mit der Länge der Antworten zusammenhängen, menschliche Beobachtungen jedoch zeigen, dass Qwen1.5 die Ergebnisse nicht durch übermäßig lange Antworten beeinflusst. Laut AlpacaEval 2.0-Daten beträgt die durchschnittliche Länge von Qwen1.5-Chat 1618, was der Länge von GPT-4 und kürzer als GPT-4-Turbo entspricht.

Die Entwickler von Tongyi Qianwen sagten, dass sie in den letzten Monaten hart daran gearbeitet haben, ein hervorragendes Modell zu entwickeln und das Entwicklererlebnis kontinuierlich zu verbessern.

Tongyi Qianwen ist wieder Open Source, Qwen1.5 bietet sechs Volumenmodelle und seine Leistung übertrifft GPT3.5

Im Vergleich zu früheren Versionen konzentriert sich dieses Update auf die Verbesserung der Ausrichtung des Chat-Modells auf menschliche Vorlieben und verbessert die mehrsprachigen Verarbeitungsfähigkeiten des Modells erheblich. In Bezug auf die Sequenzlänge haben alle Skalenmodelle eine Kontextlängenbereichsunterstützung von 32768 Token implementiert. Gleichzeitig wurde auch die Qualität des vorab trainierten Basismodells entscheidend optimiert, was den Menschen während des Feinabstimmungsprozesses ein besseres Erlebnis bieten soll.

Grundlegende Fähigkeiten

Im Hinblick auf die Bewertung der Grundfähigkeiten des Modells führte das Team von Tongyi Qianwen Qwen1.5 an Benchmark-Datensätzen wie MMLU (5-Shot), C-Eval, Humaneval, GS8K und BBH durch . Auswerten.

Tongyi Qianwen ist wieder Open Source, Qwen1.5 bietet sechs Volumenmodelle und seine Leistung übertrifft GPT3.5

Unter verschiedenen Modellgrößen hat Qwen1.5 in Bewertungsbenchmarks eine starke Leistung gezeigt. Die 72B-Version hat Llama2-70B in allen Benchmark-Tests übertroffen und ihre Leistung im Sprachverständnis und Argumentationsvermögen unter Beweis gestellt.

In letzter Zeit war der Bau kleiner Modelle einer der Hotspots in der Branche. Das Team von Tongyi Qianwen verglich das Qwen1.5-Modell mit Modellparametern von weniger als 7 Milliarden mit wichtigen kleinen Modellen in der Community:

Tongyi Qianwen ist wieder Open Source, Qwen1.5 bietet sechs Volumenmodelle und seine Leistung übertrifft GPT3.5

Qwen1.5 ist mit branchenführenden kleinen Modellen im Parametergrößenbereich unter 7 Milliarden äußerst wettbewerbsfähig.

Mehrsprachigkeitsfähigkeiten

Das Team von Tongyi Qianwen bewertete die Mehrsprachenfähigkeiten des Basismodells anhand von 12 verschiedenen Sprachen aus Europa, Ostasien und Südostasien. Aus dem öffentlichen Datensatz der Open-Source-Community erstellten Alibaba-Forscher den in der folgenden Tabelle gezeigten Bewertungssatz, der vier verschiedene Dimensionen abdeckt: Prüfung, Verständnis, Übersetzung und Mathematik. Die folgende Tabelle enthält Details zu jedem Testsatz, einschließlich seiner Bewertungskonfiguration, Bewertungsmetriken und den spezifischen beteiligten Sprachen.

Tongyi Qianwen ist wieder Open Source, Qwen1.5 bietet sechs Volumenmodelle und seine Leistung übertrifft GPT3.5

Die detaillierten Ergebnisse sind wie folgt:

Tongyi Qianwen ist wieder Open Source, Qwen1.5 bietet sechs Volumenmodelle und seine Leistung übertrifft GPT3.5

Die obigen Ergebnisse zeigen, dass das Qwen1.5-Basismodell bei mehrsprachigen Funktionen in 12 verschiedenen Sprachen gut abschneidet und gute Ergebnisse bei der Bewertung verschiedener Dimensionen wie Fachwissen, Sprachverständnis, Übersetzung und Mathematik zeigt. Darüber hinaus sind im Hinblick auf die Mehrsprachigkeitsfähigkeiten des Chat-Modells folgende Ergebnisse zu beobachten:

Tongyi Qianwen ist wieder Open Source, Qwen1.5 bietet sechs Volumenmodelle und seine Leistung übertrifft GPT3.5

Lange Sequenzen

Da die Nachfrage nach dem Verständnis langer Sequenzen weiter zunimmt, hat sich Alibaba um einiges verbessert Tausende in der neuen Version Wenn man nach den entsprechenden Funktionen des Modells fragt, unterstützt die gesamte Serie der Qwen1.5-Modelle den Kontext von 32K-Tokens. Das Team von Tongyi Qianwen bewertete die Leistung des Qwen1.5-Modells anhand des L-Eval-Benchmarks, der die Fähigkeit eines Modells misst, Antworten auf der Grundlage eines langen Kontexts zu generieren. Die Ergebnisse sind wie folgt:

Tongyi Qianwen ist wieder Open Source, Qwen1.5 bietet sechs Volumenmodelle und seine Leistung übertrifft GPT3.5

Den Ergebnissen zufolge kann sogar ein kleines Modell wie Qwen1.5-7B-Chat eine vergleichbare Leistung wie GPT-3.5 zeigen, während das größte Modell Qwen1.5 -72B- Chat liegt nur knapp hinter GPT4-32k.

Es ist erwähnenswert, dass die obigen Ergebnisse die Wirkung von Qwen 1.5 nur bei einer Länge von 32 KB-Tokens zeigen, was nicht bedeutet, dass das Modell nur eine maximale Länge von 32 KB unterstützen kann. Entwickler können versuchen, max_position_embedding in config.json auf einen größeren Wert zu ändern, um zu beobachten, ob das Modell in längeren Kontextverständnisszenarien zufriedenstellende Ergebnisse erzielen kann.

Anbindung an externe Systeme

Heutzutage liegt einer der Reize allgemeiner Sprachmodelle in ihrer potenziellen Fähigkeit, mit externen Systemen zu kommunizieren. Als eine sich schnell entwickelnde Aufgabe in der Community bewältigt RAG effektiv einige der typischen Herausforderungen, mit denen große Sprachmodelle konfrontiert sind, wie etwa Halluzinationen und die Unfähigkeit, Echtzeitaktualisierungen oder private Daten zu erhalten. Darüber hinaus demonstriert das Sprachmodell seine Leistungsfähigkeit bei der Verwendung von APIs und beim Schreiben von Code anhand von Anweisungen und Beispielen. Große Modelle können Code-Interpreter verwenden oder als KI-Agenten fungieren, um einen größeren Mehrwert zu erzielen.

Das Tongyi Qianwen-Team bewertete den End-to-End-Effekt des Chat-Modells der Qwen1.5-Serie auf die RAG-Aufgabe. Die Bewertung basiert auf dem RGB-Testsatz, einem Satz, der für die RAG-Bewertung auf Chinesisch und Englisch verwendet wird: Evaluieren Sie den Benchmark-Test der Lauffähigkeit. Alle Qwen1.5-Modelle sind nicht speziell für Benchmarks optimiert:

Tongyi Qianwen ist wieder Open Source, Qwen1.5 bietet sechs Volumenmodelle und seine Leistung übertrifft GPT3.5

Tongyi Qianwen ist wieder Open Source, Qwen1.5 bietet sechs Volumenmodelle und seine Leistung übertrifft GPT3.5

Um die Tool-Aufruffähigkeit zu testen, verwendete Alibaba seinen eigenen Open-Source-Evaluierungsbenchmark, um die Fähigkeit des Modells zu testen, Tools korrekt auszuwählen und aufzurufen . Die Ergebnisse sind wie folgt:

Tongyi Qianwen ist wieder Open Source, Qwen1.5 bietet sechs Volumenmodelle und seine Leistung übertrifft GPT3.5

Tongyi Qianwen ist wieder Open Source, Qwen1.5 bietet sechs Volumenmodelle und seine Leistung übertrifft GPT3.5Da sich der Python-Code-Interpreter schließlich zu einem immer leistungsfähigeren Werkzeug für fortgeschrittenes LLM entwickelt hat, bewertete das Team von Tongyi Qianwen auch die Fähigkeit des neuen Modells, dieses Werkzeug auf der Grundlage früherer Open Source zu nutzen Bewertungsbenchmarks:

Tongyi Qianwen ist wieder Open Source, Qwen1.5 bietet sechs Volumenmodelle und seine Leistung übertrifft GPT3.5Die Ergebnisse zeigen, dass das größere Qwen1.5-Chat-Modell im Allgemeinen das kleinere Modell übertrifft, wobei Qwen1.5-72B-Chat sich der Tool-Nutzungsleistung von GPT-4 annähert. Bei Code-Interpreter-Aufgaben wie dem Lösen mathematischer Probleme und der Visualisierung liegt jedoch selbst das größte Qwen1.5-72B-Chat-Modell in Bezug auf die Codierungsfähigkeit deutlich hinter GPT-4 zurück. Ali gab an, dass dadurch die Codierungsfunktionen aller Qwen-Modelle während des Vortrainings- und Ausrichtungsprozesses in zukünftigen Versionen verbessert werden.

Qwen1.5 ist in die Codebasis der HuggingFace-Transformatoren integriert. Ab Version 4.37.0 können Entwickler den nativen Code der Transformers-Bibliothek direkt verwenden, ohne benutzerdefinierten Code laden zu müssen (angeben der Option „trust_remote_code“), um Qwen1.5 zu verwenden.

Im Open-Source-Ökosystem hat Alibaba mit vLLM, SGLang (zur Bereitstellung), AutoAWQ, AutoGPTQ (zur Quantifizierung), Axolotl, LLaMA-Factory (zur Feinabstimmung) und llama.cpp (zur lokalen LLM-Inferenz) zusammengearbeitet. usw. Framework-Kooperation, alle diese Frameworks unterstützen jetzt Qwen1.5. Die Qwen1.5-Serie ist derzeit auch auf Plattformen wie Ollama und LMStudio verfügbar.

Das obige ist der detaillierte Inhalt vonTongyi Qianwen ist wieder Open Source, Qwen1.5 bietet sechs Volumenmodelle und seine Leistung übertrifft GPT3.5. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Welche Methode wird verwendet, um Strings in Objekte in Vue.js umzuwandeln? Welche Methode wird verwendet, um Strings in Objekte in Vue.js umzuwandeln? Apr 07, 2025 pm 09:39 PM

Bei der Konvertierung von Zeichenfolgen in Objekte in Vue.js wird JSON.Parse () für Standard -JSON -Zeichenfolgen bevorzugt. Bei nicht standardmäßigen JSON-Zeichenfolgen kann die Zeichenfolge durch Verwendung regelmäßiger Ausdrücke verarbeitet und Methoden gemäß dem Format oder dekodierten URL-kodiert reduziert werden. Wählen Sie die entsprechende Methode gemäß dem String -Format aus und achten Sie auf Sicherheits- und Codierungsprobleme, um Fehler zu vermeiden.

Remote Senior Backend Engineers (Plattformen) benötigen Kreise Remote Senior Backend Engineers (Plattformen) benötigen Kreise Apr 08, 2025 pm 12:27 PM

Remote Senior Backend Engineer Job Vacant Company: Circle Standort: Remote-Büro-Jobtyp: Vollzeitgehalt: 130.000 bis 140.000 US-Dollar Stellenbeschreibung Nehmen Sie an der Forschung und Entwicklung von Mobilfunkanwendungen und öffentlichen API-bezogenen Funktionen, die den gesamten Lebenszyklus der Softwareentwicklung abdecken. Die Hauptaufgaben erledigen die Entwicklungsarbeit unabhängig von RubyonRails und arbeiten mit dem Front-End-Team von React/Redux/Relay zusammen. Erstellen Sie die Kernfunktionalität und -verbesserungen für Webanwendungen und arbeiten Sie eng mit Designer und Führung während des gesamten funktionalen Designprozesses zusammen. Fördern Sie positive Entwicklungsprozesse und priorisieren Sie die Iterationsgeschwindigkeit. Erfordert mehr als 6 Jahre komplexes Backend für Webanwendungen

So optimieren Sie die Datenbankleistung nach der MySQL -Installation So optimieren Sie die Datenbankleistung nach der MySQL -Installation Apr 08, 2025 am 11:36 AM

Die MySQL -Leistungsoptimierung muss von drei Aspekten beginnen: Installationskonfiguration, Indexierung und Abfrageoptimierung, Überwachung und Abstimmung. 1. Nach der Installation müssen Sie die my.cnf -Datei entsprechend der Serverkonfiguration anpassen, z. 2. Erstellen Sie einen geeigneten Index, um übermäßige Indizes zu vermeiden und Abfrageanweisungen zu optimieren, z. B. den Befehl Erklärung zur Analyse des Ausführungsplans; 3. Verwenden Sie das eigene Überwachungstool von MySQL (ShowProcessList, Showstatus), um die Datenbankgesundheit zu überwachen und die Datenbank regelmäßig zu sichern und zu organisieren. Nur durch kontinuierliche Optimierung dieser Schritte kann die Leistung der MySQL -Datenbank verbessert werden.

Wie man MySQL löst, kann nicht gestartet werden Wie man MySQL löst, kann nicht gestartet werden Apr 08, 2025 pm 02:21 PM

Es gibt viele Gründe, warum MySQL Startup fehlschlägt und durch Überprüfung des Fehlerprotokolls diagnostiziert werden kann. Zu den allgemeinen Ursachen gehören Portkonflikte (prüfen Portbelegung und Änderung der Konfiguration), Berechtigungsprobleme (Überprüfen Sie den Dienst Ausführen von Benutzerberechtigungen), Konfigurationsdateifehler (Überprüfung der Parametereinstellungen), Datenverzeichniskorruption (Wiederherstellung von Daten oder Wiederaufbautabellenraum), InnoDB-Tabellenraumprobleme (prüfen IBDATA1-Dateien), Plug-in-Ladeversagen (Überprüfen Sie Fehlerprotokolle). Wenn Sie Probleme lösen, sollten Sie sie anhand des Fehlerprotokolls analysieren, die Hauptursache des Problems finden und die Gewohnheit entwickeln, Daten regelmäßig zu unterstützen, um Probleme zu verhindern und zu lösen.

So verwenden Sie MySQL nach der Installation So verwenden Sie MySQL nach der Installation Apr 08, 2025 am 11:48 AM

Der Artikel führt den Betrieb der MySQL -Datenbank vor. Zunächst müssen Sie einen MySQL -Client wie MySQLworkBench oder Befehlszeilen -Client installieren. 1. Verwenden Sie den Befehl mySQL-uroot-P, um eine Verbindung zum Server herzustellen und sich mit dem Stammkonto-Passwort anzumelden. 2. Verwenden Sie die Erstellung von Createdatabase, um eine Datenbank zu erstellen, und verwenden Sie eine Datenbank aus. 3.. Verwenden Sie CreateTable, um eine Tabelle zu erstellen, Felder und Datentypen zu definieren. 4. Verwenden Sie InsertInto, um Daten einzulegen, Daten abzufragen, Daten nach Aktualisierung zu aktualisieren und Daten nach Löschen zu löschen. Nur indem Sie diese Schritte beherrschen, lernen, mit gemeinsamen Problemen umzugehen und die Datenbankleistung zu optimieren, können Sie MySQL effizient verwenden.

Laravels Geospatial: Optimierung interaktiver Karten und großen Datenmengen Laravels Geospatial: Optimierung interaktiver Karten und großen Datenmengen Apr 08, 2025 pm 12:24 PM

Verarbeiten Sie 7 Millionen Aufzeichnungen effizient und erstellen Sie interaktive Karten mit Geospatial -Technologie. In diesem Artikel wird untersucht, wie über 7 Millionen Datensätze mithilfe von Laravel und MySQL effizient verarbeitet und in interaktive Kartenvisualisierungen umgewandelt werden können. Erstes Herausforderungsprojektanforderungen: Mit 7 Millionen Datensätzen in der MySQL -Datenbank wertvolle Erkenntnisse extrahieren. Viele Menschen erwägen zunächst Programmiersprachen, aber ignorieren die Datenbank selbst: Kann sie den Anforderungen erfüllen? Ist Datenmigration oder strukturelle Anpassung erforderlich? Kann MySQL einer so großen Datenbelastung standhalten? Voranalyse: Schlüsselfilter und Eigenschaften müssen identifiziert werden. Nach der Analyse wurde festgestellt, dass nur wenige Attribute mit der Lösung zusammenhängen. Wir haben die Machbarkeit des Filters überprüft und einige Einschränkungen festgelegt, um die Suche zu optimieren. Kartensuche basierend auf der Stadt

Der Hauptschlüssel von MySQL kann null sein Der Hauptschlüssel von MySQL kann null sein Apr 08, 2025 pm 03:03 PM

Der MySQL -Primärschlüssel kann nicht leer sein, da der Primärschlüssel ein Schlüsselattribut ist, das jede Zeile in der Datenbank eindeutig identifiziert. Wenn der Primärschlüssel leer sein kann, kann der Datensatz nicht eindeutig identifiziert werden, was zu Datenverwirrung führt. Wenn Sie selbstsinkrementelle Ganzzahlsspalten oder UUIDs als Primärschlüssel verwenden, sollten Sie Faktoren wie Effizienz und Raumbelegung berücksichtigen und eine geeignete Lösung auswählen.

Lösungen für den Dienst, der nach der MySQL -Installation nicht gestartet werden kann Lösungen für den Dienst, der nach der MySQL -Installation nicht gestartet werden kann Apr 08, 2025 am 11:18 AM

MySQL hat sich geweigert, anzufangen? Nicht in Panik, lass es uns ausprobieren! Viele Freunde stellten fest, dass der Service nach der Installation von MySQL nicht begonnen werden konnte, und sie waren so ängstlich! Mach dir keine Sorgen, dieser Artikel wird dich dazu bringen, ruhig damit umzugehen und den Mastermind dahinter herauszufinden! Nachdem Sie es gelesen haben, können Sie dieses Problem nicht nur lösen, sondern auch Ihr Verständnis von MySQL -Diensten und Ihren Ideen zur Fehlerbehebungsproblemen verbessern und zu einem leistungsstärkeren Datenbankadministrator werden! Der MySQL -Dienst startete nicht und es gibt viele Gründe, von einfachen Konfigurationsfehlern bis hin zu komplexen Systemproblemen. Beginnen wir mit den häufigsten Aspekten. Grundkenntnisse: Eine kurze Beschreibung des Service -Startup -Prozesses MySQL Service Startup. Einfach ausgedrückt, lädt das Betriebssystem MySQL-bezogene Dateien und startet dann den MySQL-Daemon. Dies beinhaltet die Konfiguration

See all articles